問題タブ [360-virtual-reality]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - iOS アプリに 360 度動画を埋め込む Youtube プレーヤー
私は xcode に非常に慣れていませんが、iOS アプリに 360 ビデオを埋め込むためのガイダンスが必要です。
基本的に、モバイル アプリで 360 度動画を再生したいと考えています。動画を Youtube アプリで開かないようにします。Youtube プラグインを使用して、自分のアプリのページの上半分でビデオを再生したいだけです。
インターネットでこれを見つけました: https://developers.google.com/youtube/v3/guides/ios_youtube_helperしかし、埋め込まれた 360 ビデオが私のアプリで機能するかどうかはわかりません。
どんな助けでも大歓迎です。
unity3d - Unity で 360 度写真を開くことはできますか
360枚の写真があります。unityで開いてモバイル用のVRにすることはできますか?
ありがとうございました
android - google VR android sdk の GvrView を使って 360 度動画を再生できますか?
を使用VrVideoView
すると、360 ビデオを再生できますが、私の問題は、(Previous、Next、Play、Pause) などのビデオ コントローラーを Bi-rectangular View に配置できないことです。では、このコントローラーをどのように追加できますかVrVideoView
(可能であれば)。そして、 を使用して 360 ビデオを再生できないことがわかりましたGvrView
。だから私は、Bi-rectangular ビューの 360 ビデオにビデオ コントローラーを追加したいだけです。
unity3d - VR ヘッドセットの FOV とビデオ ストリームの FOV の不一致を処理するにはどうすればよいですか?
この質問は、 ViewPort と FOV の違いに関する以前の質問に基づいています。
360 ビデオを受信して画面にレンダリングするアプリケーションを作成しています。
ビデオ ストリームに、それぞれの目の FOV (インスタンスで表示されるビデオ フレームの一部) の寸法に関する情報が含まれているとします。
それぞれの目の ViewPort 内でその FOV をレンダリングする必要がありますか?
一部の VR ヘッドセットが FOV について宣伝しているのを見ました。そのため、デバイスの FOV がビデオ ストリームの FOV と異なる場合があると思います。そのような場合、ViewPort 全体をストリーム FOV で満たすと、表示エクスペリエンスが低下する可能性があります。このようなケースを処理するために、アプリケーションは異なるFOVまたはViewPort(必要に応じて新しいViewPortの周りを黒く塗りつぶす)のいずれかを選択できると思います。この問題の推奨される解決策は何ですか?
unity3d - gearvr サンプル アプリケーションを使用してキューブ マップ ビデオを再生するにはどうすればよいですか?
キューブ形式の 360 ビデオ ストリームがあります。ここでは、完全な 360 画像がキューブの 6 つの面への投影としてキャプチャされ、各ビデオ フレームには画像に示すように 6 つの面がすべて含まれます。
gvr360videoサンプル アプリケーションを使用してこのビデオを再生したいと考えています。
大まかに言うと、このサンプル アプリケーションは次のように動作します。
1) メディア プレーヤーを作成します。
2) GVRSphereSceneObject を作成します。
3) この SphereSceneObject の GVRMesh オブジェクトを取得します。
4) GVRVideoSceneObject を作成し、メディア プレーヤーと GVRMesh オブジェクトを使用するように要求します。
5) 正距円筒図法の 360 ビデオを含むビデオを再生します。
キューブ マップされたビデオを再生するために、GVRSphereSceneObject の代わりに GVRCubeSceneObject を使用するようにいくつかのコードを変更しました。しかし、これでは不十分であることはわかっています。立方体のすべての面がフレームの一部であるため、フレームのどの部分を立方体のどの面に投影するかを指定できるはずです。
GVRCubeSceneObject、GVRVideoSceneObject、GVRMesh、およびその他のオブジェクトの API の詳細を読みました。しかし、必要な API が見つかりません。
誰かがこれで私を助けてくれませんか。
android - 360 度のライブ スティッチ ローカル カメラ フィードを最小のレイテンシで + Unity / iOS / Android
Unity (またはネイティブ iOS または Android) のローカル 360 カメラからのライブ ステッチ フィードを絶対最小レイテンシでレンダリングするためのハードウェアとソフトウェアに関する推奨事項を探しています。
ハードウェアとセットアップに関して高い柔軟性があります。モバイル アプリまたはデスクトップ アプリを使用できます。手頃な価格の 360 カメラならどれでもかまいません。有線接続または WiFi ダイレクトを使用できます。唯一重要なことは、カスタム アプリ (SDK?) でステッチされたライブ ビデオ フィードにアクセスし、最小限のレイテンシ (理想的には 200 ミリ秒未満) でレンダリングできることです。
上記に最適な特定のカメラ モデルをお勧めできますか。また、ステッチされたフィードにプログラムでアクセスする方法のヒントを教えてください。
ありがとう!
database - 360度写真を保存する最良の方法
360度写真(たくさん)で新しいサイトを作りたいです。そのような写真を保存する最良の方法は何ですか?
android - Android - 360 ビデオ メタデータ
そのため、ffmpeg を使用して、2 つの 360 ビデオを 1 つに連結しました。問題は、最終的なビデオですべての 360 ビデオ メタデータを失ったことです (そのため、360 ビデオとして認識されなくなりました)。最終的なビデオで exiftool を使用すると、これらのメタデータが不足します。
- 球状 : true
- ステッチ: true
- スティッチング ソフトウェア : Spherical Metadata Tool
- 投影タイプ : 正距円筒図法
たとえば、次のように、これらのメタデータを ffmpeg で挿入しようとしました。
それを行ってもエラーは発生しませんが、exiftool はまだメタデータを表示しません。
私は、Google がこれをうまく行う Python スクリプトを持っていることを知っています。
しかし、アプリにもメタデータを挿入したいと考えています。
ありがとう !