問題タブ [gpt]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
javascript - React アプリケーションで Google サイト運営者タグのシングル リクエスト アーキテクチャを構成するにはどうすればよいですか?
React アプリケーションで Google サイト運営者タグの enableSingleRequest() を実装しようとしています。Googleが提案する方法で設定しました:
ページの 1 つに 6 つの広告があり、まだ 6 つのリクエストが表示されています。また、複数のスロットにまったく同じ広告が表示されていることもわかりました。これは、SRA
解決するために使用される問題です。react adComponent
各スロットにロードされる があります。個々の adSlots の読み込み方法を再設計する必要はありますか? enableSingleRequest() の呼び出しはページごとに 1 回行う必要があり、display() を 1 回だけ呼び出す必要があるように思われるため、おそらく redux を使用して、その呼び出しに表示するすべての広告を含めるようにします。どんな助けでも大歓迎です。
反応アプリケーションで Google サイト運営者タグのシングル リクエスト アーキテクチャをどのように構成しますか?
ありがとう :)
更新:手がかりは見つかりましたが、実装の詳細は明確ではありません。これは、enableSingleRequest() に関する Google ドキュメントからのものです。
だから、今私は「反応でこれをどのように達成するのか疑問に思っています.adSlotコンポーネントが現在レンダリングされているGoogleパブリッシャータグのIDしか認識していない場合?すべてのIDを1つで渡す方法を見つける必要があります.ページ読み込み時のリクエスト...
javascript - Google Ad Manager サイズ マッピング ブラウザの警告
これは私のコードです
広告がレンダリングされない場合もありますが、すべてが正しく表示されているようです。
コンソールには、「googletag.Slot defineSizeMapping の不適切な使用法: サイズ マッピングは配列である必要があります」という警告があり、これを解決できます。多くのフォーラムや Web サイトで確認しましたが、修正できません。
手伝ってくれてありがとう!
javascript - API 応答からスロットを動的に定義する googletag が機能しない
注:プライバシー保護のため、データをマスキングしています。
以下の情報を提供する API 応答があります。また、API 応答は動的であるため、ビジネス要件に応じて、2 つまたは 20 の広告スロット情報を取得します。
この応答を使用して、実行時にスロットを定義しています。
JavaScript コード:
HTML : この HTML は、divGPTId で動的に反復していると考えてください。以下はほんの一例です。API response.length に基づいて div を反復処理しています。
上記のコードを実際の詳細で実行した後、ブラウザー コンソールにコード エラーは表示されません。また、ページに広告が表示されません。何か不足していますか?
ブラウザでデバッグを試みましたが、エラーは発生しません。
python - Huggin Face Conversational error: エラー: 引数 --model: 無効な選択: 'models/' ('openai-gpt'、'gpt2' から選択)
このリポジトリの結果を再現しようとしています:
https://github.com/huggingface/transfer-learning-conv-ai
そのために、ドッカーに基づいていない基本的な例に従っています。
それから私は試します:
そして、次のエラーが表示されます。
最初に気付いたのは、「モデル」ディレクトリがなかったため、作成して再試行したところ、同じエラーが発生したことです。
私が試した2番目のことは、指定されたレポのようにモデルをダウンロードすることでした:
私が試したそのリンクから:
メインディレクトリとモデルディレクトリの両方でファイルを解凍し、再試行してください。
3回目の試行で、同じエラーが発生しました。
これは私の作業ディレクトリの現在の構造です:
編集
キンボの提案を試しました:
私は今、このエラーが発生します:
また、実行してみました:
そのため、エラーは発生していません。この時点でスタックしているようです:
私は約30分間そこにいました
machine-learning - Perplexity は、Huggingface gpt2 言語モデル コードのどこで計算されますか?
model() 呼び出しの損失の出力が困惑の形であるという github のコメントがいくつか見られます: https://github.com/huggingface/transformers/issues/473
しかし、関連するコードを見ると... https://huggingface.co/transformers/_modules/transformers/modeling_openai.html#OpenAIGPTLMHeadModel.forward
交差エントロピーが計算されているのがわかりますが、困惑への変換はありません。損失は最終的にどこに変換されますか? それとも、私が理解していない変換がすでにそこにありますか?