問題タブ [eye-tracking]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
2 に答える
985 参照

latency - アイトラッキングのレイテンシを理解する

アイトラッキングのコンテキストでレイテンシーを理解するのに苦労しています。私は現在、視覚研究用のヘッドマウントディスプレイに統合された 30Hz アイトラッカーを使用しています。

私の見方では、目が実際に動いてから、これらの座標が視線追跡ソフトウェアによって提供されるまでに全体的な遅延があります。この遅延には 2 つの要素があります -> 1) アイ トラッカーによるイメージングの頻度による遅延 (30fps -- 33.3ms) 2) データを抽出して座標を提供する実際のアルゴリズムによる遅延。

総遅延は 1) と 2) の合計であると考えるのは正しいですか?

アイトラッカーを製造している会社と話をしたところ、アイトラッキングの遅延は 60 ミリ秒であるとのことでした。私の全体的なレイテンシは 60ms + (1000/30Hz) ~ 93.3ms ということですか?

それとも、60ms という数字はアイカメラの FPS を何らかの形で考慮に入れているのでしょうか?

0 投票する
0 に答える
227 参照

r - 8x5 グリッドによる視線追跡データのパスファインディング

2560x1600 モニターからの時系列のアイ トラッキング データ (経時的な xy 座標) があります。これらの座標を、40 個の同じサイズの 320x320 ピクセル ブロックに従って、1 ~ 40 の範囲の値の 1 つの列に減らしました。以下の図を参照してください。

モニター部

40 個のブロックのそれぞれについて、シリーズで最も頻繁に続いたブロック (つまり、時間 + 1) と確率値 (freq target/freq all) を返したいと思います。

最終的な目標は、確率値に対応する太さで、(可能であれば ggplot で) すべてのブロックを接続する単一の矢印をプロットすることです。

重みが頻度によって指定される、ある種の重み付けされたルート アルゴリズムが機能する可能性があります。どんな助けでも大歓迎です!

これは私のデータセットからの小さな抜粋です。変数は次のとおりです。pid: 参加者 ID、screen: (2 つのうちの) どのモニターが表示されているか、xcoord: x 軸 (ピクセル)、ycoord: y 軸のピクセル、time: ミリ秒単位、 : 1 gsqr~ 40 ブロック。

データ:

0 投票する
1 に答える
298 参照

python-2.7 - アイトラッキング用IoHub

  1. ioHub は Eye Tribe メガネで使用できますか?

  2. ioHub を使用して、衝動、まばたき、凝視を検出できますか?

0 投票する
3 に答える
4651 参照

psychopy - Psychopy と pylink の例

私はサイコピーの実験をアイリンク アイトラッキング システムと統合することに取り組んでいます。これを行う方法は、pylink を使用するようです。残念ながら、私は pylink にあまり詳しくないので、この 2 つを組み合わせた実験のサンプルがあることを期待していました。私はそれを見つけることができませんでした。誰かが例を共有したり、sr-research が提供する pylink api よりもアクセスしやすいマニュアルを教えてくれたりしたら、本当に感謝しています。

ありがとう!

0 投票する
1 に答える
222 参照

psychopy - eyelink dataviewer のために、psychopy/ioHub で凝視イベントを設定します

私は eyelink (sr research) システムで eyetracking データ コレクションを収集するために、psychopy と iohub を使用しています。2 つのことを設定できるようにしたいと思います: 固定イベント (タスクの次の部分/新しい試行が発生するために、特定の時点で 100 ミリ秒の固定が必要な場合) と「関心領域」: 基本的に、事前に特定の領域での注視時間を分析できるように、領域を定義しました。私が使用しているコードは、アイトラッキング (私はコーディングの専門家ではありません) のためにサイコピーを得た一般的なものであり、これら 2 つのことを行うためにコードを変更する方法がわかりません。

ありがとう!

0 投票する
1 に答える
170 参照

python - Mirametrix S2 視線トラッカー: 汎用入力 (GPI) 値の送信が常に失敗する

Mirametrix S2 視線追跡デバイスを使用しています。API ドキュメント (v1.1) では、このENABLE_SEND_GPIコマンドを使用すると、追跡クライアントがデータを視線ストリームに挿入できるようになると書かれています。サンプルコードの一部をコピーして、次のことを試しました。

私は応答で次のようになります。

ID のさまざまな組み合わせを試してみましたが、応答を得たのは のみでGPI1GPI10それぞれが に対して拒否されましたInvalid GPI ID。私は何を間違っていますか?

0 投票する
1 に答える
588 参照

algorithm - numpy でのベクトル化された視線追跡アルゴリズムの高速化

Fabian Timm の視線追跡アルゴリズム [ http://www.inb.uni-luebeck.de/publikationen/pdfs/TiBa11b.pdf]を実装しようとしています(ここにあります: [ http://thume.ca/projects/ 2012/11/04/simple-accurate-eye-center-tracking-in-opencv/] ) numpy と OpenCV で、問題が発生しました。実装を適切にベクトル化したと思いますが、リアルタイムで実行するにはまだ十分に高速ではなく、期待したほどの精度で瞳孔を検出することもできません。numpy を使用するのはこれが初めてなので、何が間違っているのかわかりません。

そして残りのコード:

0 投票する
1 に答える
41 参照

matlab - リサイズ前後の映像座標の関係

解像度 1280x960 の画面でフルスクリーンで再生された 720x576 のビデオと、関連するアイ トラッカーの視線座標データがあります。視線追跡の視覚化コードを作成しましたが、入力座標を元のビデオに一致するように変換する方法だけがわかりません。それで、誰が何をすべきかについて考えを持っていますか?