問題タブ [multimedia]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
html - HTML5 + LLVM = Win?または存在しませんか?
ブラウザで単純なブレイクアウトクローンを試したところ、CPUの25%を占めることがわかりました。悲しい。
LLVMがHTML5にフックして、キャンバスやSVGなどを利用できるかどうか疑問に思いました。そうでない場合、LLVMには独自のマルチメディアレイヤーがありますか?私は自分のバージョンのchromeを--enable-naclで実行しましたが、有効になっているようです(ネイティブクライアントのデモの半分はhttp://naclports.googlecode.com/svn/trunk/src/gallery/index.htmlを実行しました)。Chromeはそれをサポートしているので、私にできることはありますか?
silverlight - TCP 経由で送信されたリアルタイム メディア ストリームで、失われたパケットの影響を最小限に抑える最善の方法は何ですか?
Silverlight の上にオーディオ ビデオ コラボレーション アプリケーションを実装し、それを調整しようとしています。私たちが経験している問題の 1 つは、パケットがドロップされるたびにストリーム レイテンシが増加することです。パケット損失が検出され、要求され、失われたパケットが再送信されるまで待機する必要があります。もちろん、これはオーディオ ストリームの一貫性に大きく影響します。(できれば UDP に切り替えたいと思いますが、Silverlight はそのブラウザー内でサポートしていません。また、Nagle アルゴリズムも無効にしているため、一般的に、送信する byte[] 配列を送信するとすぐに、それは送信され、単一のパケットで送信されます. TCP パケット サイズ != 送信されるデータの量であることは承知していますが、Nagle アルゴリズムを無効にすると、それに近い値になります. また、適応型ジッタ バッファがあるので、失われたパケットに対処しますが、TCP/IP 経由でパケットが失われると、バッファする必要があるオーディオの量が大幅に増加し、したがって遅延が増加します)。
そのため、パケットの送信方法を最適化して、ドロップされたパケットの影響を軽減する方法があるかどうかを確認しようとしています. 現在、実装を検討しているいくつかの競合するソリューションがあります。
(1) パケットを大きくしようとすることができます。現在、同じ TCP ストリームを介して、大きい (~1024 バイトのビデオ) パケットと小さい (~70 バイトのオーディオ) パケットを組み合わせて送信しています。しかし、オーディオ データとビデオ データを一緒に多重化することもできます。つまり、余裕があるときはいつでもビデオ データの一部をオーディオ パケットに添付することができます。これにより、個々のパケットがいくらか大きくなりますが、パケットの総数は削減されます。
(2) オーディオとビデオを 2 つの別個の TCP ストリームに分割できます。これは、パケットが失われたためにビデオ ストリームが停止した場合でも、オーディオ ストリームは停止しないことを意味し、その逆も同様です。もちろん、オーバーヘッドがわずかに増加し、送信されるパケットの総数が減少することはありません。
(3) 音声を複数の個別の TCP ストリームに逆多重化し、それらを相手側で再構成することができます。これにより、事実上、単一の UDP スタイルのパケット配信を「偽造」することができます。8 つのオーディオ ストリームがあり、そのうちの 1 つがパケット損失のために停止した場合、他のストリームは時間どおりにデータを配信でき、オーディオ パケットの 1/8 を処理するだけで済みます。停止したストリームが追いつくまで利用できません。もちろん、これは理想的ではありませんが、ストリーム全体が停止して、失われたパケットが再送信されるまでパケットを再生できないよりも、より良いエクスペリエンスが得られる可能性があります。
これらの可能性について何か考えはありますか?他の提案はありますか?それとも、3 つすべてをコーディングしてからテストする必要があるのでしょうか。
windows - Windowsウェーブオーディオ入力でバッファを再利用できますか?
私はWindowsマルチメディアAPIを使用して、ウェーブオーディオ(waveInOpen
およびその友人)を記録および処理しています。ラウンドロビン方式で少数のバッファを使用したいと思います。
デバイスにバッファを追加する前に使用することになっていること、およびWaveデバイスが「バッファをアプリケーションに戻した」後、割り当てを解除する前にwaveInPrepareHeader
呼び出すことになっていることを私は知っています。waveInUnprepareHeader
私の質問は、バッファを再利用するために準備を解除して再準備する必要がありますか?または、以前に使用したバッファをデバイスに追加することはできますか?
また、これをどのスレッドで行うかは重要ですか?オーディオシステムに属するワーカースレッドで呼び出されているように見えるコールバック関数を使用しています。waveInUnprepareHeader
コールバック中に、、、waveInPrepareHeader
およびwaveInAddBuffer
そのスレッドで呼び出すことはできますか?
multimedia - マルチメディアとアニメーション
設計図を準備する必要があります。それはビデオでなければなりません。信号機の動作の小さなサンプル。
ライトが緑色の場合、車両は通過する必要があります。そうでない場合は、タイマーを待つ必要があります。
これを行うための最良の方法です。Flashでこれを行うことはできますか?それ以外に、これを行う簡単な方法はありますか?誰かが私を導くことができますか?
android - ビデオの再生中にフルスクリーンモードを変更する方法
今、私はビデオプレーヤーを作っています。ビデオの画面サイズを変更してみます。
私は見つける
しかし、これはコールバック関数です。直接呼び出し機能ではありません。
ビデオの画面サイズを変更するには?
c# - Windows のサウンドをキャプチャ/録音する
Windowsで音を録音する必要があります。スピーカーから聞こえるものをストリーミングするために書く必要があります。どのような手段/API に頼ることができますか?
android - Androidは、VoIPおよびPTTプロジェクトにRTP、RTSPを実装するためのAPIをサポートしていますか?
AndroidでPTTプロジェクトを作成します。Androidが開発者向けのVoiceandMultimedia API(RTP、RTSP、VoIPなど)をどの程度サポートしているか教えてください。
delphi - Windows XP でマスター ボリュームを取得する方法を教えてください。
Windows XP では、Delphi を使用してマスター ボリュームを取得する方法を教えてください。
keybd_event(VK_VOLUME_UP, 1, 0, 0);
と を使用してキーストロークを上下に送信するように設定できることkeybd_event(VK_VOLUME_DOWN, 1, 0, 0);
は知っていますが、ボリュームの実際の値を取得する方法がわかりません。
multimedia - 適切なマルチメディア ビルダー ソフトウェアの選択
こんにちは foks
私はソフトウェアが必要ですが、私はマルチメディア ビルダーではありません 私は .net 開発者です 最初のマルチメディア アプリケーションを構築するためのソフトウェアを選びたいです
1- 異なる Windows 操作間で移植可能でなければなり
ません。
3- CD のオートランで実行する必要があります。
4- 情報の一部の値を検索する機能が必要です
。 5- 誰かが私の情報を簡単にコピーしたくありません。
6- 情報はビデオとリッチテキストです
7- 特定の画面解像度で変更する機能があります
このアプリケーションを構築するためのソフトウェアが私に適していることを意味するソフトウェアを教えてください。それほど複雑ではなく、より簡単に構築できるものが必要ですが、結果として美しいユーザーインターフェイスが必要です。
delphi - デルフィ; 透明度のある2層で構成されるアニメーション
アルファ透明度の2つのレイヤーで構成されるアニメーションを表示する必要があります。その場で正しい組み合わせを決定して表示できるように、これが必要です。
- pngシーケンス、アルファ付きのビデオ、またはその他のものを使用できます。
- アニメーションは短く、8秒、15 fps、320x120ピクセル、音声なしです。
固定された静的な背景の上でブレンドする必要がある2つのレイヤー(それぞれ100のバリエーション)があるため、各組み合わせを事前にレンダリングすることはできません。100x100=10000シーケンスが必要になります。
それで; 同期をあまり失わずに、Delphiで2つのアニメーションレイヤーを合成することは可能ですか?
アヒル