0

複数の URL をスクレイピングし、BeautifulSoup の助けを借りて有用な情報を 2 つの配列 (id と名前) に追加し、これらの配列の値を ids[0] と names[0] が行 0 である MySQL テーブルに追加するスクリプトを作成しました。テーブルなどに…

しかし、私のコードは非常に醜いので、私のコードよりも優れた方法があると確信しています。

誰でもヒントを教えてもらえますか?具体的には、2 つの配列を反復処理する方法についての入力が必要です...

前もって感謝します!

#!/usr/bin/env python
from bs4 import BeautifulSoup
from urllib import urlopen
import MySQLdb 

#MySQL Connection
mysql_opts = {
    'host': "localhost",
    'user': "********",
    'pass': "********",
    'db':   "somedb"
    }
mysql = MySQLdb.connect(mysql_opts['host'], mysql_opts['user'], mysql_opts['pass'], mysql_opts['db']) 

#Add Data SQL Query
data_query = ("INSERT INTO tablename "
               "(id, name) "
               "VALUES (%s, %s)")

#Urls to scrape
url1  = 'http://somepage.com'
url2  = 'http://someotherpage.com'
url3  = 'http://athirdpage.com'

#URL Array
urls = (url1,url2,url3)

#Url loop
for url in urls:
    soupPage = urlopen(url)
    soup = BeautifulSoup (soupPage)

    ids = soup.find_all('a', style="display:block")
    names = soup.find_all('a', style="display:block")

    i = 0
    print ids.count
    while (i < len(ids)):
        try: 
            id = ids[i]
            vid = id['href'].split('=')
            vid = vid[1]
        except IndexError:
            id = "leer"

        try:
            name = names[i]
            name = name.contents[0]
            name = name.encode('iso-8859-1')
        except IndexError:
            name = ""

        data_content = (vid, name)
        cursor.execute(data_query, data_content)
        emp_no = cursor.lastrowid
        i = i + 1
4

1 に答える 1