Blender (v2.65a、Cycles エンジンを使用) でシーンの深度マップをレンダリングしたいと考えています。画像平面 (または yz 平面など、それに平行な任意の平面) までの距離を深度値として使用します。
ドキュメントで説明されているように、複合ノードを使用して単純な深度マップをレンダリングすることができます。ここでの問題は、使用される Z 値がイメージ プレーンではなく、カメラまでの距離に基づいていることです。これは、この例で見られるように、イメージ プレーンに平行な線は、レンダリングされたイメージ内の位置に応じてさまざまな z 値を持つことを意味します (レンダリングは立方体の前面を示し、値は正規化されています)。
画像平面に平行な平面上のポイントに対して同じ深度を保持する深度マップが必要です (深度マップは通常のレンダリングと一致する必要があるため、全体的な投影を変更する必要はありません)。
これは、ビュー方向からの角度に応じて値を修正するスクリプトを使用して現在の深度マップを後処理することで実現できますが、レンダリング プロセスから正しい情報を取得する方法があるかどうか疑問に思っていました。
複合ノード (または同様の Blender 機能) を使用して、イメージ プレーンまでの距離に基づいて深度マップをレンダリングする方法はありますか?