問題タブ [tensorflow-xla]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tensorflow-serving - XLA を使用した Tensorflow サービング
Tensorflow Serving で推論を行うときに XLA コンパイルを有効にすることは可能ですか?
(文書化されていない構成の問題であり、カスタム Servable の実装を回避できることを願っています)。
tensorflow - XLA GPU を自動的に検出して使用するように Tensorflow を取得する
Tensorflow によって自動的に検出されない XLA GPU がありますが、それに対して計算を実行できます。私の望む結果:の結果print(tf.test.is_gpu_available())
は「True」です。
ここに私が実行しているコードがあります:
関連する出力は次のとおりです。
この出力からわかるように、すべてがデバイスに割り当てられていても、利用可能な GPU はありません。何がうまくいかないのですか?これらは私のインストールされた tensorflow パッケージです:
さらに情報が必要な場合は、何を提供すればよいかお知らせください。
完全な出力は次のとおりです (警告: 長い):