urllib2を使用していくつかの株式情報をスクレイピングしています。
私のコードのいくつかは次のとおりです。
cap_url = "http://wisefn.stock.daum.net/company/c1010001.aspx?cmp_cd=%s" % code
cap_req = urllib2.Request(cap_url)
cap_data = urllib2.urlopen(cap_req).read()
~
~
~
depr_url = "http://wisefn.stock.daum.net/company/cF3002.aspx?cmp_cd=%s&frq=Q&rpt=ISM&finGubun=MAIN" % code
depr_req = urllib2.Request(depr_url)
depr_data = urllib2.urlopen(depr_req).read()
~
~
~
transaction_url = "http://www.shinhaninvest.com/goodicyber/mk/1206.jsp?code=%s" % code
transaction_data = urllib2.urlopen(transaction_url).read()
soup = BeautifulSoup(transaction_data, fromEncoding="utf-8")
ご存知のように、%sは銘柄コードです。与えられた銘柄コードで、私はすべての銘柄情報をスクレイピングしています。銘柄コードの総数は1,600を超えています。次に、収集した情報をxlwtを使用してExcelに書き込みます。
ただし、一部のURLに接続したり、そのURLを手動で入力したりできる情報を取得したりすることはできません。
どうしたの?そして、どうすればページのスクレイピングを高速化できますか?