0

現在、毎分実行されている Twitter 検索 API を使用する cron ジョブを持っていますが、1 リクエストあたり 100 件の結果に制限されています。ストリーミング API の使用を開始したいのですが、サーバーの負荷がさらに増加するのではないかと心配しています (現在共有ホスティングを使用しており、私のcronジョブはすでにいくつかの危険信号を発しています)。

私の質問は、データのバックログなしでストリーミング API データを十分にキャプチャするために取得する必要があるサーバーの最小仕様は何ですか?

4

1 に答える 1

0

私が使用し、他の人もそうしているのを見た設計は、メッセージ キューを使用することです。その目的専用のスレッドを介して、ツイートをキューにストリームにロードします。次に、キューの反対側に別のスレッドを配置して、ツイートを読み取り、必要に応じて処理することができます。これが私が話していることの良い例です:

http://www.laurentluce.com/posts/python-twitter-statistics-and-the-2012-french-presidential-election/

十分な分析がなければ、仕様がどうあるべきかは誰にもわかりません。あなたの質問へのコメントの1つが示唆しているように、あなたが得る最も近い答えはそれを試すことです. 一般に、やりたいことの簡単なプロトタイプを作成して、効果が何であるかを確認し、必要に応じて測定します。繰り返しになりますが、ここには多くのアーキテクチャの原則が関係しているため、何をすべきかを誰かが正確に教えてくれるのは賢明ではありません。

ジョー

于 2012-10-06T02:17:24.073 に答える