0

BeautifulSoup を使用して URL からテーブルを抽出するところまで到達しました。この時点で、出力をテーブルとしてフォーマットして、GeekTool で使用できるようにします。

from bs4 import BeautifulSoup
import urllib2
wiki = "https://www.google.com/maps/place?q=type:transit_station:%22145+St%22&ftid=0x89c2f67c67a250f9:0x92d51daa07480dd1"
header = {'User-Agent': 'Mozilla/5.0'} #Needed to prevent 403 error on Wikipedia
req = urllib2.Request(wiki,headers=header)
page = urllib2.urlopen(req)
soup = BeautifulSoup(page)

desination = ""
eta = ""
table = soup.find("table", { "class" : "pprtjt" })


for row in table.findAll("tr"):
    for cell in row.findAll("td"):
       print cell.findAll(text=True)

以下を出力します。

[u'   C to 168 St  ']
[u'2 min']
[u'   D to Norwood - 205 St  ']
[u'4 min']
[u'   A to Ozone Park - Lefferts Blvd  ']
[u'4 min']
[u'   A to Inwood - 207 St  ']
[u'5 min']
[u'   D to Coney Island - Stillwell Av  ']
[u'10 min']
[u'   C to 168 St  ']
[u'15 min']
[u'   D to Norwood - 205 St  ']
[u'19 min']
[u'   A to Far Rockaway - Mott Av  ']
[u'19 min']
[u'   A to Inwood - 207 St  ']
[u'20 min']

したがって、行 1 は列 1 の最初の行であり、行 2 は列 to の最初の行であり、以下のようになります。

C to 168 St                 | 2 min
D to Norwood - 205 St       | 4 min
A to Ozone Park - Lefferts Blvd | 4 min
A to Inwood - 207 St        | 5 min
D to Coney Island - Stillwell Av    | 10 min
C to 168 St                 | 15 min
D to Norwood - 205 St       | 19 min
A to Far Rockaway - Mott Av         | 19 min
A to Inwood - 207 St        | 20 min

理想的には、表として印刷してから、全体を GeekTool で使用したいと考えています。私のコードの基礎はここからです: http://adesquared.wordpress.com/2013/06/16/using-python-beautifulsoup-to-scrape-a-wikipedia-table/したがって、ウィキペディアへの参照。

私はこれに関して完全な素人なので、これが完全に間違った方法である場合は申し訳ありません。前もって感謝します。

4

2 に答える 2

0

最後の二重ループは次のようになるはずです。

for row in table.findAll("tr"):
    rowText = []
    for cell in row.findAll("td"):
        # Append every cell in this row
        rowText.append(cell.findAll(text=True)[0])
    # print the row joining the cells with '|'
    print ' | '.join(rowText)
于 2014-03-03T14:45:35.937 に答える