web-dev-qa-db-ja.com

iPad Air 2に匹敵するタブレットデバイスの内蔵カメラを使用して、アイトラッキングのどの程度の解像度を合理的に期待できますか?

「解像度」とは、デバイスの画面の一部を(大まかに)指します。たとえば、最も粗いレベルの解像度で、ユーザーが画面の上半分と下半分のどちらを見ているか(正面のFaceTime HDカメラを使用して)を区別することを期待できますか? (デバイスとの腕の長さの相互作用を想定)

この質問では、iPad Air 2の具体例を提供しますが、これは具体的な出発点としてのみ意図されています。ビルトインカメラを備えた他のタブレット(またはラップトップ)についても回答できます。重要なのは、より洗練された(外部の)アイトラッキング技術を使用せずに、現在期待できるアイトラッキングの解像度を理解することです。

4
David

IPad Air 2の前面カメラの解像度は1.2MP、つまり1280x960ピクセルです。いくつかの仮定をしてみましょう:

  • 水平視野は60°です
  • ユーザーはタブレットを目から約450mm持ちます
  • 眼球は直径約24mm

したがって、ユーザーの眼球の距離で、1ピクセルは(450mm * tan(60/1280))mm = 0.37mmをカバーします。瞳孔がそれだけ動くために眼球がどれだけ回転する必要があるか見てみましょう。

24mmの眼球では、0.37mmの動きは1.8°の回転に相当します。タブレットに戻ると、この動きの量は(450mm * tan(1.8°))mm = 14mmに対応します。

したがって、すべてが完璧である場合、正面カメラから見たユーザーの瞳孔の1ピクセルの動きは、タブレット画面全体でのユーザーの視線の14mmのシフトに対応します。

しかし!すべては[〜#〜]ではない[〜#〜]完璧です。 人の手が揺れる人の目が揺れる 、カメラが騒々しい。個人的には、すべての発言と実行が行われたときの精度は約10分の1になると思います。これは、「画面の上部と下部」の例に相当します。

そしてもちろん、誰かがそれをすべて機能させるための適切なソフトウェアを書かなければなりません。

3
Daniel Griscom

私はこれについて非常に単純なテストを行いました。ソフトウェアソリューションを実装していません。むしろ、私はiPad 2の画面の各隅で、一度に数秒間見つめている自分のビデオを単にキャプチャしました。ビデオを自分の目だけにトリミングして、手動で調べました。瞳孔と「画面の輝き」を使用して、ビデオの任意のフレームでどのコーナーを注視していたかを非常に簡単に判断できました。

「画面のきらめき」とは、目のコンピュータの角膜および/または瞳孔上の明るいコンピュータ画面の光沢のある反射を指します。明るい長方形としてはっきりと現れます。

この実験の場合、画面の輝きは生徒の約4分の1の大きさでした。 (言い換えると、画面の輝きの幅は瞳孔の直径の半分でした。)画面の輝き、つまり瞳孔の幅が何ピクセルあるかは確認しませんでした。そのような尺度は、これがどれだけ正確に使用されるかを決定することに向かっていきます。 (すなわち、瞳孔の「中心」が画面の輝きのどこにあるかを決定することによって。)

視線の四分円を決定することは、画面の中心に近い方の注視点では正確性が低下すると思います。それにもかかわらず、iPad 2の内蔵フロントカメラは、ユーザーがアプリケーションを使用しているときに見ている画面の象限を追跡するのにある程度役立つと思われます。

したがって、ユーザーが検討していたポートレートのどの機能を特定するのにも適切に機能しない可能性がありますが、おそらくユーザーがアプリケーションのどのペインに注意を払っていたかを判断することはできません。

1
David

GazeRecorder(ユーザビリティテスト用のWebCam Eye Tracking)を試すことができます。このソフトウェアは、通常のWebカメラを使用して自動的に記録します。 https://sourceforge.net/projects/gazerecorder/

WebCam EyeTracker Accurycyテスト結果: http://www.slideshare.net/szymondeja3/raport-gaze-flow-vs-smi26092013en-1

0
Szymon Deja