アナログカメラを備えたデバイスがあります。それをサンプリングしてデジタル化するカードがあります。これはすべて directx で行われます。現時点では、ハードウェアを交換することはできませんが、ハードウェアや基盤となるオペレーティング システムの変更が将来発生しても、このビデオ フィードをリアルタイムで表示できるようにコーディングする必要があります。
この方針に沿って、このカメラ フィードを表示するための GUI を実装するために Qt を選択しました。ただし、将来、Linux またはその他の組み込みプラットフォームに移行し、他のハードウェア (カメラ/ビデオ サンプラーが存在する物理デバイスを含む) を変更する場合は、カメラ表示ソフトウェアも変更する必要があります。 GUIに統合する必要があるため、面倒です。
私が提案したのは、データがソケット経由で GUI に送信され、ビデオがソケット ストリームから解析された後にライブで表示される、より抽象的なモデルに移行することでした。
まず、これは良いアイデアですか、それとも悪いアイデアですか?
第二に、そのようなことをどのように実装しますか? ビデオサンプラーは通常、どのように使用可能な出力を提供しますか? この出力をソケットにプッシュするにはどうすればよいですか? 受信側で出力を解析したら、出力をどう処理するか (出力をレンダリングする方法など) を知るにはどうすればよいですか? 私が考えることができる唯一のことは、各サンプルをファイルに書き込み、新しいサンプルが到着するたびにファイルの内容を表示することです. これがうまくいくとしても、これは非効率的な解決策のように思えます。
これをどのように処理することをお勧めしますか? そのようなことに利用できるクロスプラットフォームのライブラリはありますか?
ありがとうございました。
編集:上にリストされているものではなく、何か違う提案を喜んで受け入れます。