次のように、url.txt というテキスト ファイルに 200 個の URL を入れます。
url_1
url_2
url_3
....
url_n
そして、Pythonでそれらすべてを調べて、各URLのページ(テキスト)のコンテンツを取得したいと考えています。このテキスト ファイルから各 URL を調べる最も簡単な方法は何ですか? スクレイピー?それとも別のスクリプトを書くだけですか?
import urllib
from bs4 import BeautifulSoup as BS
html =urllib.urlopen('url').read()
soup = BS(html)
print soup.find('div',{'class':'drkgry'})[1].get_text()