複数の URL をスクレイピングし、BeautifulSoup の助けを借りて有用な情報を 2 つの配列 (id と名前) に追加し、これらの配列の値を ids[0] と names[0] が行 0 である MySQL テーブルに追加するスクリプトを作成しました。テーブルなどに…
しかし、私のコードは非常に醜いので、私のコードよりも優れた方法があると確信しています。
誰でもヒントを教えてもらえますか?具体的には、2 つの配列を反復処理する方法についての入力が必要です...
前もって感謝します!
#!/usr/bin/env python
from bs4 import BeautifulSoup
from urllib import urlopen
import MySQLdb
#MySQL Connection
mysql_opts = {
'host': "localhost",
'user': "********",
'pass': "********",
'db': "somedb"
}
mysql = MySQLdb.connect(mysql_opts['host'], mysql_opts['user'], mysql_opts['pass'], mysql_opts['db'])
#Add Data SQL Query
data_query = ("INSERT INTO tablename "
"(id, name) "
"VALUES (%s, %s)")
#Urls to scrape
url1 = 'http://somepage.com'
url2 = 'http://someotherpage.com'
url3 = 'http://athirdpage.com'
#URL Array
urls = (url1,url2,url3)
#Url loop
for url in urls:
soupPage = urlopen(url)
soup = BeautifulSoup (soupPage)
ids = soup.find_all('a', style="display:block")
names = soup.find_all('a', style="display:block")
i = 0
print ids.count
while (i < len(ids)):
try:
id = ids[i]
vid = id['href'].split('=')
vid = vid[1]
except IndexError:
id = "leer"
try:
name = names[i]
name = name.contents[0]
name = name.encode('iso-8859-1')
except IndexError:
name = ""
data_content = (vid, name)
cursor.execute(data_query, data_content)
emp_no = cursor.lastrowid
i = i + 1