2

かなり大規模なプロジェクト (リッチ Web アプリケーション) が私の膝の上に落ちましたが、主要な機能を達成する方法に慣れていません。皆さんが私を正しい方向に向けるのを手伝ってくれることを願っています。

ユーザーが 3D アバターをカスタマイズしてサーバーに保存できるようにする必要があります。ユーザーは、体型、髪型、髪の色、衣服、アクセサリーなどを選択できます。ユーザーは、アバターを配置するさまざまな環境、特定のアニメーション (ダンスの動き、楽器の演奏など) から選択できます。 )、およびオーディオ ファイル。音声ファイルは、選択した環境内でアバターがアニメーションを実行している間に再生されます。

これを行うにはどうすればよいでしょうか。どのテクノロジーを使用する必要がありますか? 理想的には、同僚と一緒に MoCap ソフトウェア (Microsoft Kinect を使用) を使用して、アバターの 3D ベース モデルとアニメーションを完成させます。ユーザーの保存されたアバターでモデルを動的にスキン/テクスチャ化することは可能ですか? もしそうなら、どうすればこれを達成できますか?この問題を解決する方法について他に何か提案はありますか?

この問題の方向性に心から感謝します。また、このタスクを完了するために必要なスキルがあると思われる場合は、アウトソーシングを検討する場合があります。潜在的な契約労働者にどのようなスキルを求めるべきかさえわかりません。

御時間ありがとうございます。

4

2 に答える 2

0

3D モデルを処理する必要があるため、いくつかの Flash 3D API を調べると役立つ場合があります (例: Stage3D - リンク: http://www.adobe.com/devnet/flashplayer/stage3d.html )。アニメーション情報 (モデルのキーフレームなど) を保存するために他のツールを使用すると仮定すると、データを 3D API に送信したり、アプリケーション固有の形式で保存したりできるパーサーも必要になります。モデルのレンダリングとアニメーション化に向けた最後のステップは、すべてのアニメーション情報を解析し、それに応じてモデルを変更することです。

于 2011-11-29T08:49:47.653 に答える
0

3D の人間のアバターをインタラクティブにリアルタイムで再構築する必要がある場合は、このビデオで示されているように、肥満を監視するために Kinect からアバターを生成するアルゴリズムを使用できます。デモビデオを見る。

アルゴリズムについては、技術論文 A. Barmpoutis で詳しく説明されています。「Tensor Body: Real-time Reconstruction of the Human Body and Avatar Synthesis from RGB-D」、サイバネティックスに関する IEEE トランザクション、RGB-D センサーのコンピューター ビジョンに関する特別号: Kinect とそのアプリケーション、2013 年 10 月、Vol. 43(5)、ページ: 1347-1356。PDFを読む。

于 2013-12-21T14:26:55.473 に答える