前もって感謝します。
できるだけ多くのデータを保持し、鮮明な画像を維持しながら、480x640 カメラを 480x272 液晶 (FPGA 経由) と接続しようとしています。これは可能ですか?もしそうなら、これはスケーリングの問題ですか、私に指示できる関連アルゴリズムはありますか?
前もって感謝します。
できるだけ多くのデータを保持し、鮮明な画像を維持しながら、480x640 カメラを 480x272 液晶 (FPGA 経由) と接続しようとしています。これは可能ですか?もしそうなら、これはスケーリングの問題ですか、私に指示できる関連アルゴリズムはありますか?
そこにはいくつかの画像サイズ変更テクニックがあります(グーグルのみ)。手の込んだものの中には、ハードウェアでの実装と比較して考える必要があり、合理的なパイプラインと 1 つまたは 2 つのハードウェア乗算器が必要になる可能性があります (理論的にはこれもパイプライン処理できます)。ビデオのサイズをリアルタイムで変更する予定ですか、それとも 1 つの静止画だけですか?
最も簡単で最も汚いのは、サブサンプリングです。あなたの場合、画像の垂直方向を少なくとも 640/272 = 2.35 倍縮小する必要があります。ディスプレイとカメラの縦横比が異なるため、フル ディスプレイと元の画像の縦横比を維持することはできません。もちろん、整数以外で実際にサブサンプリングすることはできません。代わりにできることは、補間とサブサンプリングの組み合わせ、または 2.35 を 2 または 4 に丸め、両方の次元でサブサンプリングすることです。明らかに、2 にすると少しトリミングされてしまい、4 にすると垂直方向全体を埋めることはできません。ハードウェアに実装するのは簡単なので、サブサンプリングは便利です。一方で、良い画像結果を得るための最適なアルゴリズムではありません。私の提案は、サブサンプリングから始めて (matlab などで簡単にシミュレートできます)、それで十分かどうかを確認することです。もしそうなら、それのために行きます。それ以外の場合は、SW の世界を探索し続けて、興味深いと思われるアルゴリズムの HW 実装について考えてください。