問題タブ [virtual-reality]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
4 に答える
3034 参照

architecture - MMORPG / VR アーキテクチャ

MMORPG、バーチャル リアリティ サーバー、またはリッチ 3D クライアントを備えたその他のシステムのアーキテクチャについて説明している記事 / ブログへのリンクを提供してくれる人はいませんか。

0 投票する
1 に答える
2988 参照

html - HTMLページにQuickTime VRの「何か」を埋め込む方法は?

必要に応じてこれにタグを付けsend-me-the-codezます。Quicktime VR のようなもの (より適切な用語がないため。映画? アプレット?) を HTML ページに配置するのを手伝ってほしいと頼まれまし。これについてどうすればいいですか?オンラインの例へのポインタが最も高く評価されます。

: Apple の iPhone の 360 度ビューを調べました。インターネットで見た QuickTime VR の例はこれだけだと思います。Apple の標本は JavaScript を大量に使用しており、ひどくやり過ぎのように見えます。

0 投票する
4 に答える
1402 参照

flash - HTML5 パノラマ

この Flash パノラマ ビューア ( http://flashpanoramas.com/player/ ) を使用しています。しかし、Flash をサポートしていないデバイスの場合、適切な HTML の代替手段はありますか? Google ストリート ビューなどの適切な 3D パノラマをサポートする必要があります。

0 投票する
1 に答える
1334 参照

ios - サファリ HTML5 パノラマを構築するためのチュートリアル?

Apple のテクノロジー デモで提示されているような HTML5 ベースの VR パノラマを構築するためのチュートリアルはありますか? VR効果を再現するための検索結果やチュートリアルが非常に少ないので質問しています。リンクは次のとおりです。

VRデモ

0 投票する
2 に答える
2800 参照

javascript - 2D キャンバス (画像 + テキスト) を 3D サーフェスに適用し、360 度の回転/アニメーションを実行します。HTML5/CSS3/Javascript または Flash が必要ですか?

私は(可能であれば、または)ブラウザーに次の機能を実装する方法を考えています。

ユーザーがブラウザーで 3D サーフェスにカスタム デザイン (画像 + テキストを追加) できるようにする Web アプリを設計しようとしています。デザインは (2D) キャンバス/エディターで行うことができ、ユーザーは画像をドラッグ アンド ドロップしたり、テキストを追加したりできます。次に、できればリアルタイムで、デザインが変換され、3D 形状/サーフェスに適用されます。ユーザーは、3D サーフェスを回転させてプレビューできます。

iOS で動作する必要があるため、Flash はリリースされていません。また、この種のアプリケーションで WebGL を回避することは可能でしょうか? 幅広いブラウザー カバレッジが必要です (関連するキャンバス シムで IE8 をサポートする必要があります)。

すでにこれを行っているものはありますか?これをクライアント側 (HTML5/Javascript) だけに実装することは可能でしょうか?

0 投票する
1 に答える
76 参照

hardware - マルチモニターの物理セットアップ用の記述ファイル

シンプルなデュアル スクリーン コンピューター、 PowerwallsCavesなど、マルチ モニターと VR セットアップの機械可読な説明が必要です。この説明には、物理​​空間内のすべての出力 (ディスプレイまたは投影) のサイズと配置を含める必要があります。

将来の目標は、ユーザー (ヘッド) トラッキング、モバイル デバイスのデバイス トラッキングなどをマルチディスプレイ環境と組み合わせることです。

  • 最も単純な問題は、ディスプレイケースの境界によるマルチモニターセットアップの画面間のギャップに注意することです.
  • 最も複雑な設定はおそらく、多角形または曲面の投影面を持つ洞窟でしょう。

私の印象では、そこにあるすべての VR ソフトウェアは、独自の setup-config-crackpot-text-file-format を定義しています。私が見逃している一般的な標準または一般的な慣行はありますか?

0 投票する
1 に答える
144 参照

javascript - Objective-CのJavaスクリプトパラメータを置き換える方法は?

サンプル プロジェクトでApple HTML5 VRを使用しようとしていました...

このサンプルコードのように見えます。

threesixty.js

Seq_v04_640x378_01.jpg ~ Seq_v04_640x378_72.jpg を読み込む

しかし、360度表示するために別の写真を追加したい場合、私は興味がありました

写真の名前を変更する方法???

返信または回答ありがとうございます:)

ウェバー

/編集 - Projec 辞書のスクリーンショットを追加/ ここに画像の説明を入力 「最適化された」辞書には 72 枚の写真があります

0 投票する
2 に答える
2418 参照

c++ - デスクトップ VR 用の OpenGL 非対称フラスタム

画面に対するユーザーの位置を追跡し、レンダリングされたシーンをユーザーの視点に合わせて更新する OpenGL c++ アプリケーションを作成しています。これは「デスクトップ VR」と呼ばれ、画面をジオラマや水槽と考えることができます。私は OpenGL の初心者で、これまで非常に単純なシーン (立方体のみ) しか定義しておらず、最初は正しくレンダリングされていました。

問題は、移動を開始して立方体シーンを再レンダリングしたいときに、投影面が変換されたように見え、本来あるべき姿が見えないことです。この飛行機を直してほしい。レイ トレーサーを書いている場合、ウィンドウは常に固定されますが、目はさまよいます。カメラ/目を非原点座標でさまよいながら、希望する効果(表示ウィンドウを固定する)を実現する方法を誰かに説明してもらえますか?

私が見つけたすべての例は、カメラ/目が原点にあることを要求していますが、これは私にとって概念的に便利ではありません。また、これは「水槽」であるため、d_near を z = 0 の xy 平面に設定しています。

画面/ワールド空間では、画面の中心を (0,0,0) に割り当て、その 4 つのコーナーを次のように割り当てます: TL(-44.25, 25, 0) TR( 44.25, 25, 0) BR( 44.25,-25 , 0) BL(-44.25,-25, 0) これらの値は、16x9 ディスプレイの場合の cm 単位です。

次に、POSIT を使用してユーザーの目 (実際には私の顔の Web カメラ) を計算し、通常は (+/-40、+/-40、40-250) の範囲のどこかにあるようにします。私の POSIT メソッドは正確です。

パースペクティブ用に独自のマトリックスを定義し、変換を表示し、シェーダーを使用しています。

次のように初期化します。

Web で調べたところ、view_dir 以降は修正されたままです。これは、d_near と d_far だけでなく、d_x、d_y、d_y を更新するだけでよいことを意味します。私は glutIdleFunc( idle ); でこれを行います。

ここに私のシェーダーコードがあります:

OK、コードにいくつかの変更を加えましたが、成功しませんでした。頂点シェーダーで MV の代わりに V を使用すると、すべてが思いどおりに見え、遠近法は正しく、オブジェクトは適切なサイズになりますが、シーンはカメラの変位によって変換されます。

C と V を使用して MV を取得すると、シーンはオブザーバーの視点からまっすぐにレンダリングされ、レンダリングされたシーンはウィンドウを埋めますが、目/カメラの視点は失われます。

本当に、私が望むのは、オブジェクトの中心 (xy 中心が (0,0) である) をレンダリング イメージの中心。教科書「Interactive Computer Graphics: A Top-Down Approach with Shader-Based OpenGL (6th Edition)」の例を参考にしています。Web で無料で入手できる本とペアになっているファイルを使用して、行優先のアプローチを続けています。

以下の画像は、マトリックスCを使用してMVを作成しない場合に撮影されます。C を使用して MV を作成すると、すべてのシーンが下の最初の画像のようになります。z を平行移動させたくないので、0 のままにします。

投影面と私のカメラ面は平行なので、一方の座標系から他方の座標系への変換は単純な変換と inv(T) ~ -T です。

これが(0,0,50)での目の画像です: これが(0,0,50)での目の画像です:

(56,-16,50) での目の画像は次のとおりです。 (56,-16,50) での目の画像は次のとおりです。

0 投票する
1 に答える
2061 参照

c++ - C++ を使用した Oculus Rift VR

私は Oculus Rift VR を持っていて、彼らの Web サイトから SDK をダウンロードしました。私は Visual Studio 2010 Pro を使用しており、WIKI ページの Minimal Oculus Application Tutorial で言及されていることはすべて実行しました。

私はlibファイルとそれらが言ったことすべてを追加しました。しかし、行を追加すると多くのエラーが発生します#include "OVR.h"

このファイルに含まれるすべてのヘッダー ファイルが検出されるわけではありません。彼らがTWICEについて言及したことはすべてやったのに!

助けはありますか?

0 投票する
1 に答える
621 参照

matlab - VR Signal Expander Simulink へのモデル生成パス出力

私は matlab コードを持っており、適切な Simulink モデルに変換したいと考えています。ただし、私は Simulink を初めて使用し、Matlab の経験しかありません。適切なモデルに変換するように案内してください。

次の手順に従って、matlab から Simulink の信号生成モデルを参照するモデルを設計しました

問題は、参照からステップ 1 を設定する方法と、出力生成パスでVR ボールを移動するためにVR SIGNAL EXPANDERに出力を与える方法です。?