問題タブ [handwriting-recognition]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
tesseract - Tesseract 用 IAM 手書きデータベースのトレーニング済みデータ ファイル
tesseract で使用する IAM 手書きデータベースのトレーニング済みデータ ファイルを教えてください。.traineddata ファイルが必要です。
image-processing - 単語分割ヒストグラムの説明
手書きのテキスト行で単語を分割しようとしています。これは、単語の分割部分が画像に示されている研究論文に基づいています。ヒストグラムを作成する量がわかりません。単語分割のヒストグラム - (画像リンク)
c# - uwpでインクレコグナイザーにカスタム単語リストを追加するには?
スタイラスを使用してテキストボックスに入力したユーザーの手書き認識を可能にするカスタムユーザーコントロールを持つuwpアプリを開発しました。
一般的な単語には問題なく機能しますが、ユーザーは、InkRecognizer の既定の認識エンジンとして設定した言語で取り上げられていないため、常に認識されていない、またはまったく認識されていない技術用語や頭字語を使用することがよくあります。
デフォルトの Inkrecognizer を設定する方法は次のとおりです。
そして、認識結果を取得する方法:
期待される結果は、通常、他のテキスト候補にも含まれていません。
Windows.UI.Input.Inking の msdn ドキュメントを読みましたが、この特定のトピックに関して役立つものは見つかりませんでした。手書き認識に関する Channel9 のビデオと、私の google-fu が思いついた結果についても同じことが言えます。理想的には、Windows.Inking に存在するWordListに似たものを探しています。
プログラムでインク認識エンジンの単語のプールに単語リストを追加したり、uwp アプリで手書き認識用のカスタム辞書を作成したりする方法はありますか?
machine-learning - HMM モデルを使用してサンプルの信頼度を計算するにはどうすればよいですか?
隠れマルコフ モデル (HMM) に基づく手書き数字認識に取り組んでいます。トレーニング後、5 つのモデルを取得します。サンプルを取り、各モデルでその確率の可能性を計算します。次に、結果は次のとおりです。
- モデル1の場合:-235
- モデル 2 の場合: -250
- モデル 3 の場合: -193
- モデル4の場合:-290
- モデル5の場合:-325
確率が最も高い (-193) ため、サンプルはモデル 3 に分類されることが示されています。問題は、値 (-193) をパーセンテージに変換して、認識の信頼レベルとして表現するにはどうすればよいですか?
matlab - ニューラル ネットワークを使用した手書き単語のセグメンテーション
そこで私がやろうとしているのは、筆記体の手書きの英単語を個々の文字に分割することです。人工知能を使用した単純なヒューリスティックなアプローチを適用して、次のような単語の基本的な過剰セグメンテーションを行いました。
これをMatlabでコーディングしています。このアプローチには、前処理、傾き補正サイズの正規化などが含まれ、次にペン ストロークを 1 ピクセル幅に細くし、画像のピクセルの列合計を使用して画像に存在する合字を識別します。ピクセル合計がしきい値より低いすべての列は、セグメンテーション ポイントになる可能性があります。問題は、「u」、「v」、「m」、「n」、「w」などのオープン文字もピクセルの列合計が低く、セグメント化されることです。私が使用したアプローチは、このホワイトペーパーで提示されているものの修正版です。
ニューラル ネットワークを使用した筆記体のセグメンテーション。
この配置を改善するには、ニューラル ネットワークを使用してこれらのセグメント化されたポイントを修正し、それらを不適切なセグメント化として認識する必要があります。そのための「newff」関数を作成し、手動でセグメントに良いラベルと低いラベルを付けますが、そのニューラルネットワークへの入力が何であるかを理解できませんか?
私の推測では、可能なセグメントが作成される列番号とともにいくつかの画像データを提供する必要があるということです (トレーニング サンプルごとに 1 つのセグメンテーション ポイント。指定された画像には約 40 のセグメンテーション ポイントがあるため、40 のトレーニング サンプルにつながります)。トレーニングの良いセグメントまたは悪いセグメントとしてラベルを付けます。
セグメンテーション ポイントが良いか悪いかを伝える出力ニューロンは 1 つだけです。
入力レイヤーへの入力として、すべての列の列合計を与えることはできますか? このトレーニング インスタンスのセグメンテーション ポイントをどのように伝えればよいでしょうか? ここで最も重要な値である良いセグメントまたは悪いセグメントとして分類する必要がある実際の列番号は、この n 次元入力の海に溺れませんか? (n は画像のピクセル単位の幅)
php - PHP - ウェブサイトで手書き認識を日本語にする方法
最近は、手書き認識日本語プロジェクトについて研究しています。私はどこかを探していますが、これに関する良い情報はまだ得られていません。PHP と ajax による Web サイトでの手書き認識について、推測やヒントを教えてください。
java - 画像から文字列への手書き認識
私は Encog を使用しており、ocr サンプルを実行しました。それは正常に動作します。しかし、パラメータとして画像ファイル(png、jpg、...)を渡したいです。この画像には、認識されるテキストが含まれています。次に、システムは「同じ」テキストを含む文字列を返す必要があります。
誰かがすでに似たようなことをしましたか?どのように始めればよいですか?
ありがとう!
machine-learning - Digit Recognition on CNN
I am testing printed digits (0-9) on a Convolutional Neural Network. It is giving 99+ % accuracy on the MNIST Dataset, but when I tried it using fonts installed on computer (Ariel, Calibri, Cambria, Cambria math, Times New Roman) and trained the images generated by fonts (104 images per font(Total 25 fonts - 4 images per font(little difference)) the training error rate does not go below 80%, i.e. 20% accuracy. Why?
Here is "2" number Images sample -
I resized every image 28 x 28.
Here is more detail :-
Training data size = 28 x 28 images. Network parameters - As LeNet5 Architecture of Network -
#xA;This works, giving 99+% accuracy on MNIST. Why is so bad with computer-generated fonts? A CNN can handle lot of variance in data.