問題タブ [tesla]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
2 に答える
2346 参照

ssl - Nginx エラー:「共有暗号がありません」。しかし、

私のNginxサーバーには、見た目が良く、ほとんどのブラウザーで完全に機能するSSL証明書があります。サーバーはhttps://live.evmote.comです。https://live.evmote.com/primusにアクセスすると、サーバーに「ヒット」できます。SSL証明書チェックはこちら: https://www.ssllabs.com/ssltest/analyze.html?d=live.evmote.com

ここまでは順調ですね。問題は、Tesla Model S ブラウザー (車載ブラウザー) に特にあります。「Bad certificate」エラーが発生します。Tesla ブラウザは悪名高く、サポートも不完全です。Tesla から証明書チェーンを表示したり、問題をデバッグしたりする方法はありません。パソコンというより、電化製品です。Tesla 内からの SSL サポートは次のとおりです: http://i.imgur.com/EbIrClM.jpg

Nginx サーバーで、ログに次のエラーが表示されます: SSL3_GET_CLIENT_HELLO:no shared cipher

さて、Tesla SSL レポートとサーバー レポートから明らかなように、共有暗号があります。TLS_RSA_WITH_AES_256_CBC_SHA (0x35) でハンドシェイクすることを期待します。

ここからトラブルシューティングする方法がわかりません。

ありがとう、ライアン

0 投票する
1 に答える
216 参照

cuda - グリッドの次元が大きすぎる場合、Cuda は入力を変更しません

次のコードを検討してください。

ブロック数が 65536 以上の場合、入力配列は変更されませんがdevice_query、CUDA コード サンプルによると、x 次元の最大サイズは 65536 よりもはるかに大きくなります。

私は何か間違ったことをしていますか、それともハードウェアはその機能について嘘をついていますか? これは既知のバグですか? エラーをスローするべきではありませんか?

0 投票する
1 に答える
1139 参照

cuda - Maxwell GPU でコンピューティング機能 3.7 用にコンパイルされた CUDA を使用していますか?

現在、私の開発ワークステーションには NVIDIA Quadro K2200 および K620 が搭載されています。どちらも CUDA コンピューティング機能 5.0 を備えています。ただし、最終的な本番システムには、CUDA コンピューティング機能 3.7 を備えた Tesla K80 があります。

計算能力 3.7 用の CUDA プログラムを Quadro GPU にインストールして開発し、大きな変更を加えることなく K80 に移行することはできますか?

0 投票する
0 に答える
358 参照

cuda - CUDA: safeCall() ランタイム API エラーの無効なデバイス シンボル

CUDA 7.5 を搭載したリモート マシンで Nvidia Tesla M2090 を使用して CudaSift プロジェクトcudaSift実行しようとしています。マシンにはこれらの GPU が 4 つ搭載されていますが、デバッグの結果、初期化が正しく行われていることは確かです。コードは次のとおりです。

cmake を使用してメイクファイルを生成すると、makeファイルはcudaSiftエラーなしで生成されます。

とにかく、実行すると、次のエラーが返されます。

その42行目cudaSiftH.cuは次のとおりです。

どこ:

これは、によって出力されるコードですInitCuda(初期化中にすべてが正常であることを確認します)。

解決:

コメントで示唆されているように、私は間違ったアーキテクチャでコンパイルしていsm_35ましCMakeList.txtsm_20

0 投票する
1 に答える
1784 参照

cuda - CUDA 不明なエラー

Nvidia Tesla M2090 でCudaSiftmainSift.cppから実行しようとしています。まず、この質問で説明したように、 からに変更する必要がありました。 sm_35sm_20CMakeLists.txt

残念ながら、次のエラーが返されます。

そして、これはLaplaceMultiコードです:

多少似ていると思われるこの質問をすでに読んだことがありますが、解決策が何を意味するのか、問題にどのように使用するのかわかりません。

なぜエラーが発生するのですか?

0 投票する
1 に答える
659 参照

windows - Caffe on Windows common.cpp:166] チェックに失敗しました: エラー == cudaSuccess

Caffe win7 に 2 つの異なる GPU を使用すると、動作しません。OS システム: win7 SP1 GPU: Quadro K620、Tesla K40 Caffe: Windows 用 Caffe 問題は、K620 用の最新のドライバー 369.26 に更新するたびに、Tesla K40 が動作しないことです。その後、Tesla K40 用の最新のドライバー 341.96 に更新すると、K620 が機能しなくなります。そのため、デュアル GPU を使用している場合、caffe では機能せず、エラーは次のとおりです。

GPU Tesla K40 のみを使用すると (Quadro のみを使用すると動作します)、エラーは次のようになります。

0 投票する
0 に答える
1700 参照

tensorflow - TensorFlow での Tesla K80 のメモリ使用量

Tesla k80 GPU を使用した TensorFlow の畳み込みニューラル ネットワークのサンプル コードを実行しました。

https://www.tensorflow.org/versions/r0.9/tutorials/deep_cnn/index.html#launching-and-training-the-model-on-multiple-gpu-cards

「GPU 1」のメモリ使用量は 11Gb で、最大の 12Gb の約 95% でした。しかし「GPU 2」のメモリ使用量はわずか64Mb。TensorFlow を搭載した Tesla K80 で GPU の両方のメモリを使用する方法を教えてください。

0 投票する
0 に答える
626 参照

gpu - sudo 権限なしで GPU メモリを解放する

私は深層学習の実験に theano を使用しています。新しいプロセスを開始するために、ctrl+c で 3 週間実行中のプロセスを強制終了しました。

ご覧のとおり、プロセスを強制終了しましたが、gpu メモリは解放されません。nvidia-smi によると、23MB の小さな使用量を除いて、メモリは無料です。テスラk40を使用しています。

しかし実際には、非常に小さなデータセットでも実行しようとすると、メモリ エラーが発生します。わずか 23 MB の使用量であれば、まったく問題にはなりません。

使用しているマシンに sudo 権限がありません。この問題を解決するにはどうすればよいですか?