BeautifulSoup を使用して URL からテーブルを抽出するところまで到達しました。この時点で、出力をテーブルとしてフォーマットして、GeekTool で使用できるようにします。
from bs4 import BeautifulSoup
import urllib2
wiki = "https://www.google.com/maps/place?q=type:transit_station:%22145+St%22&ftid=0x89c2f67c67a250f9:0x92d51daa07480dd1"
header = {'User-Agent': 'Mozilla/5.0'} #Needed to prevent 403 error on Wikipedia
req = urllib2.Request(wiki,headers=header)
page = urllib2.urlopen(req)
soup = BeautifulSoup(page)
desination = ""
eta = ""
table = soup.find("table", { "class" : "pprtjt" })
for row in table.findAll("tr"):
for cell in row.findAll("td"):
print cell.findAll(text=True)
以下を出力します。
[u' C to 168 St ']
[u'2 min']
[u' D to Norwood - 205 St ']
[u'4 min']
[u' A to Ozone Park - Lefferts Blvd ']
[u'4 min']
[u' A to Inwood - 207 St ']
[u'5 min']
[u' D to Coney Island - Stillwell Av ']
[u'10 min']
[u' C to 168 St ']
[u'15 min']
[u' D to Norwood - 205 St ']
[u'19 min']
[u' A to Far Rockaway - Mott Av ']
[u'19 min']
[u' A to Inwood - 207 St ']
[u'20 min']
したがって、行 1 は列 1 の最初の行であり、行 2 は列 to の最初の行であり、以下のようになります。
C to 168 St | 2 min
D to Norwood - 205 St | 4 min
A to Ozone Park - Lefferts Blvd | 4 min
A to Inwood - 207 St | 5 min
D to Coney Island - Stillwell Av | 10 min
C to 168 St | 15 min
D to Norwood - 205 St | 19 min
A to Far Rockaway - Mott Av | 19 min
A to Inwood - 207 St | 20 min
理想的には、表として印刷してから、全体を GeekTool で使用したいと考えています。私のコードの基礎はここからです: http://adesquared.wordpress.com/2013/06/16/using-python-beautifulsoup-to-scrape-a-wikipedia-table/したがって、ウィキペディアへの参照。
私はこれに関して完全な素人なので、これが完全に間違った方法である場合は申し訳ありません。前もって感謝します。