問題タブ [cost-based-optimizer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Tensorflow コスト関数
形状 (10,1000)、10 個の入力、1000 行の入力データセット x と、(1,1000)、1 個の出力、1000 行の出力 y があります。
私が定義したコスト関数は
予測は単一の予測出力値であり、Y は出力値のプレースホルダーです。以下のコードを使用して、コストの値を取得しました。
Y のフィードは (1,1000) ベクトルであるため、出力コスト関数値は (1000,1000) 行列です。
問題は、すべての入力を行ごとにループせずに、行列の数の瞬間のコストを計算するコスト関数をどのように作成できるかです。
optimization - 異なる範囲での 2 つの損失関数の最適化。
非常に異なる値を取る 2 つの損失関数を最適化しています。例を挙げると:
を最適化したいloss1+loss2
。loss1 を loss2 に近い値に再スケーリングすることは良い考えでしょうか? 全体の損失期間 (合計) 内で、loss2 に 1000 を掛けるだけの素朴な方法を試しましたが、問題は、loss1
下に行くにつれて (約 600、500)loss2
大きくなりすぎることです。
私の考えは、最適化プロセス全体で、両方の損失条件を同じ範囲に保つ方法を見つけることです。これを行う最善の方法は何ですか?