問題タブ [machine-translation]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - iOS で Bing Api を使用して言語を翻訳するには?
私は iOS の初心者です。言語翻訳機能を含むアプリケーションを作成するので、Bing API を使用し、Github のFGTranslatorを使用します。
しかし、フランス語を英語に翻訳しますが、ユーザーが言語を選択できるように選択したいのですが、French
言語Spanish
を英語からスペイン語に変換する方法FGTranslator解決策を教えてください。
ここでFGTranslator
、言語変換メソッドは次のようになります
ここでは、ユーザーの選択とは異なる言語を設定する方法を説明します。
ここで私はそれのためのメソッドを書きますFGTranslatorErrorDomainerror 1
. 次のようなメソッドを書くのを手伝ってください
ここに私en
は英語js
用と日本語用に書いています。助けてください。
nlp - 巨大な言語モデルで機械翻訳モデルを調整するには?
Moses
機械翻訳モデルを構築するソフトウェアです。AndKenLM
は、モーセが使用する事実上の言語モデル ソフトウェアです。
16GBのテキストを含むテキストファイルがあり、それを使用して言語モデルを構築します:
結果のファイル ( text.arpa
) は 38GB です。次に、言語モデルを次のように二値化しました。
また、2 値化された言語モデル ( text.binary
) は 71GB に増加します。
では、変換モデルをトレーニングした後、アルゴリズムmoses
を使用してモデルの重みを調整する必要があります。そして、これはhttps://github.com/moses-smt/mosesdecoder/blob/master/scripts/training/mert-moses.plMERT
で簡単に実行できます。
MERT は小さな言語モデルでは問題なく動作しますが、大きな言語モデルでは完了するまでにかなりの日数がかかります。
Google 検索を行ったところ、KenLM のフィルターが見つかりました。これは、言語モデルをより小さなサイズにフィルター処理することを約束しています: https://kheafield.com/code/kenlm/filter/
しかし、私はそれを機能させる方法について無知です。コマンドのヘルプは次のように表示されます。
しかし、次のことを試してみると、スタックして何もしません。
2値化後の言語モデルはどうすればよいですか? 大規模な言語モデルを操作して、チューニング時の計算負荷を軽減する他の手順はありますか?
大きな LM ファイルをチューニングする通常の方法は何ですか?
KenLM のフィルターの使い方
(詳細はhttps://www.mail-archive.com/moses-support@mit.edu/msg12089.htmlを参照)
corpus - Europarl を使用した Moses のパフォーマンスがこれほど悪いのはなぜですか?
私は Moses をいじり始め、かなり標準的なベースライン システムになると思われるものを作成しようとしました。私は基本的にWeb サイトに記載されている手順に従いましたが、使用する代わりに、WMT 2006 開発セットと元の Europarl 共通テストをnews-commentary
使用して、 Europarl v7 をトレーニングに使用しました。私のアイデアは、ベースラインの英語からフランス語へのシステムで .68 の BLEU スコアを獲得したLe Nagard & Koehn (2010) と同様のことを行うことでした。
要約すると、私のワークフローは多かれ少なかれ次のとおりでした。
tokenizer.perl
すべてにlowercase.perl
(代わりにtruecase
)clean-corpus-n.perl
- Europarl v7 のフランスのデータのみを使用して IRSTLM モデルをトレーニングする
train-model.perl
説明どおりmert-moses.pl
WMT 2006 dev を使用- 説明されているパフォーマンスのテストと測定
結果の BLEU スコアは .26 です... これにより、次の 2 つの疑問が生じます。
- これは、この種のベースライン システムの典型的な BLEU スコアですか? Europarl は単一言語モデルをトレーニングするための非常に小さなコーパスであることは理解していますが、これは Moses の Web サイトで行われている方法です。
- SMT や Moses を始めたばかりの人が陥りがちな典型的な落とし穴はありますか? それとも、Le Nagard & Koehn のような研究者は、Moses の Web サイトで説明されているものとは異なる方法でベースライン システムを構築していますか?
php - 情報を送信する前に値を変換する
Google APIの翻訳または他のAPIを使用してPHPの値を翻訳する方法はありますか...
このプロセスは可能ですか、それとも私はただ夢を見ているだけですか?
私は Google 翻訳ウィジェットしか使用せず、翻訳は情報を提示した後に行うため、Goolge API がどのように機能するかについてはほとんど知識がありませんが、この場合、情報を提示する前に翻訳を行う必要があります...