2

ユーザーのツイートを抽出してデータベースに保存する必要があるユーティリティを作成しています。Twitter API は 1 回の呼び出しで 20 個のツイートしか送信しません。さらに多くのツイートを取得するには、一度に 20 個のツイートをページングする必要があります。そのため、Twitter API からツイートを同期的に読み取り、DB への挿入を待機する代わりに、プロセスを最適化するためにデータベースの挿入を非同期的に開始したいと考えています。
Python と Mysql でこれを達成するにはどうすればよいですか?
このための擬似コードは次のように記述できます (構文の妥当性はチェックされません):-



    def readTweets():
       x=0
       while true: 
          tweets= twitterAPI.getusertimeline(id='twitterUser',count=20,page=x)
          #Need to know how to call the below function asynchronously
          callDBSaveAsynchronously(tweets)
          if len(tweets) < 20: break
          x=x+1

    def callDBSaveAsynchronously(tweets):
        for tweet in tweets:
            mysqldb.insertTweet(tweet)

 

前もって感謝します!

4

1 に答える 1

0

非同期挿入にgeventを利用できる、ultramysqlと呼ばれるサードパーティの MySQL ドライバーがあります。そのようにしてスレッドを回避できます。最近のプロジェクトで私にとってはうまくいきました。

于 2013-06-05T06:50:44.067 に答える