問題タブ [frequency-analysis]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
2110 参照

r - Rでデータフレームを周波数テーブルに変換する

R を使用して、度数分布表 (table()関数を使用して作成) をデータ フレームに変換しました。私のデータフレームは次のようになります。

table()ここで、このデータ フレームをオブジェクトに変換したいと思います。

どのように?

0 投票する
1 に答える
1720 参照

csv - Pythonを使用した2つの単語に基づく単語頻度カウント

thisthisthisなどの 1 つの単語の単語数をカウントする方法を示すオンラインのリソースはたくさんありますが
、2 つの単語のカウント頻度の具体的な例を見つけることができませんでした。

いくつかの文字列を含む csv ファイルがあります。

だから私は出力を次のようにしたい:

もちろん、すべてのコンマ、尋問ポイントを削除する必要があります....{!, , ", ', ?, ., (,), [, ], ^, %, #, @, &, *, -, _, ;, /, \, |, }

テキストからより具体的なデータを取得するために、ここで見つけたいくつかのストップ ワードも削除します。

Pythonを使用してこの結果を達成するにはどうすればよいですか?

ありがとう!

0 投票する
1 に答える
949 参照

algorithm - 非常に狭い FFT ウィンドウ関数?

最も狭いローブ幅を提供するフラットトップ ウィンドウ関数は何ですか?

私は FFT 分析を行っており、結果として得られる正弦波のメインローブをできるだけ狭くする必要がありますが、スキャロピング損失を回避しています。これらはスキャロッピングの削減に最適であるため、フラットトップ関数を要求します。サイドローブは気にしません。巨大なスカラップがなければ、長方形のウィンドウでも十分です...

現在、この論文の SFT3M ウィンドウを使用しています:
http://www.rssd.esa.int/SP/LISAPATHFINDER/docs/Data_Analysis/GH_FFT.pdf


PS。そこでもこの質問をしました :
https://math.stackexchange.com/questions/524617/very-narrow-fft-window-functions
.

0 投票する
1 に答える
564 参照

elasticsearch - ElasticSearch での子の頻度によるフィルター

私は現在、エラスティック検索 (ドキュメント) でインデックス付けされた親と、これらのドキュメントに関連する子 (コメント) を持っています。私の最初の目的は、子クエリに基づいて、N 個を超えるコメントを含むドキュメントを検索することでした。これが私がやった方法です:

スコアを使用してドキュメントに含まれるコメントの量を計算し、「min_score」を使用して、この量でドキュメントをフィルター処理しました。ここでの目的は、コメントだけでなく、ドキュメントに関連する他のいくつかの子ドキュメントを、常に頻度に基づいて検索することです。以下のクエリのようなもの:

上記のクエリは正常に機能しますが、最初のクエリのように頻度に基づいてフィルタリングしません。スコアが計算される前にフィルターが計算されるため、min_score を使用して各子クエリをフィルター処理することはできません。

この問題の解決策はありますか?

0 投票する
1 に答える
3636 参照

algorithm - 大量のテキストから最も一般的なフレーズを見つける効率的なアルゴリズム

大量のテキストから最も一般的なフレーズを収集するプログラムを作成することを考えています。問題が単語を見つけるだけに縮小された場合、新しい単語をそれぞれハッシュマップに格納し、出現ごとにカウントを増やすのと同じくらい簡単になります。しかし、句の場合、文の各順列をキーとして保存することは実行不可能に思えます。

基本的に問題は、十分な長さのテキストから考えられるすべてのフレーズを抽出する方法を見つけることに絞り込まれます。フレーズを数えて、出現回数でソートするのは簡単です。

0 投票する
2 に答える
344 参照

java - FFT 周波数解析で間違った値が取得されるようです

ここで周波数分析に関する多くの投稿を見て、大いに役立つように見えましたが、自分の声を録音して周波数を印刷しようとしましたが、値は録音されたものとは関係ないように見え、声のピッチを上げようとしました。周波数値で何が起こるかを確認しますが、投稿されたlogcatでわかるように印刷された周波数には独自の意志があり、おそらくバックグラウンドノイズの原因です:)

頻度を取得する方法のコードは次のとおりです。

ログキャットは次のとおりです。

私が何をしても、この範囲の値にとどまります。

誰か助けてくれませんか?マイクに向かって高いピッチの音やさまざまな種類のノイズを発しても、周波数が変わらないのはなぜですか?

0 投票する
2 に答える
2173 参照

c# - FSK 復調 - 日本語 EWS データの解析

【これは複製ではありません。同様の質問は、人々がソース データを制御できるシナリオに関するものです。しません】</p>

日本には「緊急警報放送システム」というものがあります。有効にすると次のようになります: http://www.youtube.com/watch?v=9hjlYvp9Pxs

上の動画では2:37あたりからFSK変調された信号が送られてきます。この信号を解析したい。つまり、信号を含む WAV ファイルが与えられた場合、後で処理するために 0 と 1 を含む StringBuilder を作成したいと考えています。バイナリ データなどの仕様は把握していますが、問題はオーディオ プログラミングについて何も知らないことです。:(

これは単なる趣味のプロジェクトですが、夢中になりました。テレビやラジオのメーカーは、この信号を受信して​​、家電製品に反応させることができるので、それほど難しいことではありませんよね? :(

信号に関する事実:

  • マークトーンは1024Hz、ストップトーンは640Hz
  • 各トーンの長さは 15.625ms
  • 信号の開始前と終了後に 2 秒間の一時停止 (おそらく検出のため)

私がこれまでにやったこと:

  1. 8 ビットのモノラル WAV ファイルを受け入れ、それらからサンプルを取得できる単純な RIFF パーサーを作成します。私はそれをテストしましたが、動作します。
  2. 15.625 ミリ秒のサンプルを取得するループ:
    1. RMS を使用して 2 秒間の無音を探します
    2. Goertzel アルゴリズムを使用して、信号が 1024Hz か 640Hz かを決定します。

私が抱えている問題:

  • テスト データによっては、ループ中に 0 と 1 が飲み込まれます。
    • 信号の明瞭さ (YouTube から MP3 へのリッピング) を考えると、それは起こらないはずです。
    • Audacity で繰り返し 01 シーケンスを 30 回生成すると、プログラムは 01 ペアのうち 30 ではなく約 10 を取得します。
  • 時々 0 と 1 が入れ替わる (上記の副作用?)
  • 1 つのテスト サウンド ファイルで動作するようにコードを微調整すると、他のテスト サウンド ファイルが動作しなくなります

私の質問:

  • FSK デコードがソフトウェアで適切に行われる方法について、概要を説明してくれる人はいますか?
  • 信号を 640Hz+1024Hz に制限し、他のすべてをミュートする何らかのフィルターを適用する必要がありますか?
  • タイミングを正しく保つための最良のアプローチは何ですか? 多分私はそれを間違っていますか?
  • この種のオーディオ処理に関する初心者向けの文献へのリンクはありますか? 私は本当に学び、これを機能させたいと思っています。

サンプルを読み取るコードは次のとおりです (簡略化)。

オーディオ プロセッサは、次のような単なるクラスです。

読んでくれてありがとう。あなたが私を助けてくれることを願っています。

0 投票する
1 に答える
10910 参照

lucene - ルセン 4.4。すべてのインデックスで用語の頻度を取得する方法は?

ドキュメント内の各用語の tf-idf 値を計算しようとしています。そのため、ドキュメント内の用語を繰り返し処理し、コーパス全体での用語の頻度と、その用語が出現するドキュメントの数を見つけたいと考えています。以下は私のコードです:

ドキュメントには、totalTermFreq() はすべてのドキュメントでこの用語の総出現回数を返すと書かれていますが、テストしたところ、docNbr で指定されたドキュメント内の用語の頻度のみが返されることがわかりました。および docFreq() は常に 1 を返します。

インデックス全体で用語の頻度を取得するにはどうすればよいですか?

更新 もちろん、用語をその頻度にマップするマップを作成できます。次に、各ドキュメントを繰り返し処理して、用語が出現する合計回数をカウントします。ただし、Lucene にはその目的のためのメソッドが組み込まれている必要があると思いました。ありがとうございました、