少なくとも私が考えることができるキーワードを使用して、答えがどこにも見つからなかったので、私はこれを求めています。私が見つけた最も関連性の高い質問/回答は次のとおりです: ( iPad でインタラクティブなビデオを作成する - 製品デモ用アプリ) 。ユーザー Jano は次のように答えました。
iOS 用のインタラクティブ ビデオを作成する最も簡単な方法は、Apple の HTTP ライブ ストリーミング テクノロジを使用することです。ビデオを作成し、メタデータを埋め込み、MPMoviePlayerController または AVPlayerItem を使用して再生し、メタデータ通知に応じてクリック可能な領域を表示する必要があります。
メタデータには、追跡している要素の座標が含まれている必要があります。たとえば、ドレスや製品の識別子です。この情報に、製品に関する詳細情報を表示するクリック可能なサブビューを重ねます。iTunes にはこの種のアプリケーションがいくつかありますが、その 1 つを次に示します。
機能する製品と数週間のビデオを手に入れたら、最も難しい部分は、可能な限り人間とのやり取りをせずにモーション トラッキングを実行することです。1 つのアプローチは、Adobe After Effects を使用することです。もう 1 つは、OpenCV に基づいて独自のソリューションをコーディングすることです。
この技術に関して私が見つけた例 ( http://vimeo.com/16455248 ) は、ビデオが埋め込まれたメタタグに到達すると、NSButtons が自動的に追加されることを示しています。私のクライアントは、特定の時間に一時停止し (おそらくメタタグを使用して)、ユーザーがビデオ内の要素をタップすると反応する人体のインタラクティブなビデオを望んでいます (例: 胃の中の錠剤を想像してください。この錠剤をタップすると、別のプレユーザーに透過的でない方法でレンダリングされたビデオ)。Cocos2D や Open GL ES を使ったアニメーションを考えたことがありますが、これらの技術を使いこなせる人材が不足しています。
上記の引用の「モーショントラッキング」の参照がよくわかりませんでした。Jano は、Adobe After Effects と OpenCV について言及しています。このモーショントラッキングは「UIGestureRecognizer」のようなものですか? 動画自体の一部、またはユーザーが開始したモーションをタップとして追跡しますか?
可能な限り明確な形で質問を公開したと思います。前もって感謝します。