0

WWDC 2010 の CoreMotion ティーポット サンプル コードを試しています。現在、コードは、レンダリングされた 3D オブジェクトとデバイスの距離を除いて、デバイスの動きを考慮しています。どうすればこれを追加できますか?

例: レンダリングされた 3D オブジェクトからデバイスを引き離すと、3D オブジェクトが小さくなる必要があります。レンダリングされた 3D オブジェクトの近くにデバイスを配置すると、3D オブジェクトが大きくなる必要があります。右にパンすると、3D オブジェクトは左に移動する必要があります (場合によっては画面外に移動します)。

どこから探し始めればよいかわかりません。これは、デバイスのセンサーから計算できますか?

4

1 に答える 1

2

内部センサー(ジャイロスコープ、加速度計、コンパス)は、物理的な世界に固定された基準点がないため、このタスクに苦労します。ここここに加速度計から相対位置を計算する際の問題についての質問/回答があります。

拡張現実アプリケーションは、多くの場合、カメラを使用して参照ポイント(たとえば、テーブルに配置されたQRコードやその他のオブジェクトトラッキング)を特定し、参照ポイントのサイズ/方向の変化を計算して拡張オブジェクトを再描画することで問題を解決します。

ここには、アルゴリズムとアプローチを検討するための基本的な出発点があります

于 2013-03-04T10:52:32.383 に答える