2

私は iOS プログラミングが初めてなので、どなたかがこの問題を解決してくれることを願っています :)

私が取り組んでいる iOS アプリを使用すると、ユーザーは写真を撮り、その画像をカスタム メタデータ (日付と時刻、緯度、経度など) と共にデバイスに保存できます。現在、カメラ機能(写真を撮って保存する)のみが機能しており、exifdata(GPS、日付と時刻)を画像に保存しようとしています。しかし、私がこのスレッドを書いている理由は、カメラの方向と部屋内のユーザーの位置を画像に割り当てる方法がわからないからですか?

私の問題をよりよく理解するために、あなたが部屋に立っていて、この部屋にあるすべてのアイテムの写真を撮りたいと想像してください。部屋には通常 4 つの壁があるとします。壁の写真を撮るたびに、写真を撮っている部屋の位置と方向を保存する必要があります。あなたは直面していました(たとえば、フロアプランで自分の位置をマークするため)。必要な機能を提供するSolocatorというアプリが既に存在します。しかし、私は自分のアプリにこれらの機能を実装したいので、それらの背後にあるアイデアを知る必要があります:)

まず、自分の位置から部屋の 4 つの壁すべてまでの距離 (または、壁と壁の間の角点 (?) までの距離) を知る必要があります。どのように?CLLocationDistance とは?

アイデアをいただければ幸いです。ありがとうございました

4

0 に答える 0