拡張現実ベースのプロジェクトを実現し始めたばかりで、GPS の位置と方向を取得し、仮想カメラを操作するために欠落している 2 つの変数はピッチ/ロールです。
プロジェクトにマージできる既製の式があるかどうか疑問に思っています。多くの時間を割いてくれました。前もって感謝します。
拡張現実ベースのプロジェクトを実現し始めたばかりで、GPS の位置と方向を取得し、仮想カメラを操作するために欠落している 2 つの変数はピッチ/ロールです。
プロジェクトにマージできる既製の式があるかどうか疑問に思っています。多くの時間を割いてくれました。前もって感謝します。
iPhone の加速度計に関するこの投稿で、サンプル コードを含め、ほとんどの質問に答えることができると思います。
CMMotionManager
生データ (加速度計、ジャイロなど) に基づいてラジアンを計算するを介して、デバイスの回転にアクセスできます。センサーの更新を有効にしてください。
if (motionMng.deviceMotionAvailable && !motionMng.deviceMotionActive) {
motionMng.deviceMotionUpdateInterval = 1.0 / 50.0;
[motionMng startDeviceMotionUpdates];
}
その後、オブジェクトにクエリを実行してpitch
、(x)、roll
(y)、および(z) の回転にアクセスします。yaw
attitude
CMDeviceMotion *motion = [motionMng deviceMotion];
if (motion != NULL) {
float pitch = motion.attitude.pitch;
float roll = motion.attitude.roll;
float yaw = motion.attitude.yaw;
NSLog(@"ROTATION: x:%f y:%f z:%f", pitch, roll, yaw);
}
それ以来、私はこの問題に取り組んでいるので、解決策に関する非常に詳細な投稿をここで読むことができます。