したがって、ウィキペディアのランダムな記事に移動した場合、括弧内ではない最初のリンクを繰り返しクリックすると、95% のケースで哲学に関する記事にたどり着くというこの理論に興味があります。
私は Python でリンクをフェッチするスクリプトを書きたいと思っていましたlinkA -> linkB -> linkC
。
Web ページの HTML DOM を取得し、不必要なリンクと曖昧さ回避ページにつながる上部の説明バーを取り除くことができました。これまでのところ、次のように結論付けています。
- DOM は、一部のページ (たとえばHuman ) の右側に表示されるテーブルから始まります。これらのリンクは無視します。
- 有効なリンク要素はすべて
<p>
、祖先としてどこかに要素を持っています (タグなどの内部にある場合は、ほとんどの場合、親または祖父母です。曖昧さ回避ページにつながる上部のバーには、要素<b>
が含まれていないようです。<p>
- 無効なリンクには、コロンの後に続く特殊な単語が含まれています。
Wikipedia:
ここまでは順調ですね。しかし、私を得るのは括弧です。たとえば、Humanに関する記事では、括弧内にない最初のリンクは "/wiki/Species" ですが、スクリプトはその中にある "/wiki/Taxonomy" を見つけます。
必ずしも同じではない親/子ノードの組み合わせでテキストを探す必要があるため、プログラムでこれを行う方法がわかりません。何か案は?
私のコードを以下に示しますが、これは私がすぐに作り上げたものであり、あまり誇りに思っているわけではありません。ただし、コメントが付けられているので、私の考えを確認できます (希望:))。
"""Wikipedia fun"""
import urllib2
from xml.dom.minidom import parseString
import time
def validWikiArticleLinkString(href):
""" Takes a string and returns True if it contains the substring
'/wiki/' in the beginning and does not contain any of the
"special" wiki pages.
"""
return (href.find("/wiki/") == 0
and href.find("(disambiguation)") == -1
and href.find("File:") == -1
and href.find("Wikipedia:") == -1
and href.find("Portal:") == -1
and href.find("Special:") == -1
and href.find("Help:") == -1
and href.find("Template_talk:") == -1
and href.find("Template:") == -1
and href.find("Talk:") == -1
and href.find("Category:") == -1
and href.find("Bibcode") == -1
and href.find("Main_Page") == -1)
if __name__ == "__main__":
visited = [] # a list of visited links. used to avoid getting into loops
opener = urllib2.build_opener()
opener.addheaders = [('User-agent', 'Mozilla/5.0')] # need headers for the api
currentPage = "Human" # the page to start with
while True:
infile = opener.open('http://en.wikipedia.org/w/index.php?title=%s&printable=yes' % currentPage)
html = infile.read() # retrieve the contents of the wiki page we are at
htmlDOM = parseString(html) # get the DOM of the parsed HTML
aTags = htmlDOM.getElementsByTagName("a") # find all <a> tags
for tag in aTags:
if "href" in tag.attributes.keys(): # see if we have the href attribute in the tag
href = tag.attributes["href"].value # get the value of the href attribute
if validWikiArticleLinkString(href): # if we have one of the link types we are looking for
# Now come the tricky parts. We want to look for links in the main content area only,
# and we want the first link not in parentheses.
# assume the link is valid.
invalid = False
# tables which appear to the right on the site appear first in the DOM, so we need to make sure
# we are not looking at a <a> tag somewhere inside a <table>.
pn = tag.parentNode
while pn is not None:
if str(pn).find("table at") >= 0:
invalid = True
break
else:
pn = pn.parentNode
if invalid: # go to next link
continue
# Next we look at the descriptive texts above the article, if any; e.g
# This article is about .... or For other uses, see ... (disambiguation).
# These kinds of links will lead into loops so we classify them as invalid.
# We notice that this text does not appear to be inside a <p> block, so
# we dismiss <a> tags which aren't inside any <p>.
pnode = tag.parentNode
while pnode is not None:
if str(pnode).find("p at") >= 0:
break
pnode = pnode.parentNode
# If we have reached the root node, which has parentNode None, we classify the
# link as invalid.
if pnode is None:
invalid = True
if invalid:
continue
###### this is where I got stuck:
# now we need to look if the link is inside parentheses. below is some junk
# for elem in tag.parentNode.childNodes:
# while elem.firstChild is not None:
# elem = elem.firstChid
# print elem.nodeValue
print href # this will be the next link
newLink = href[6:] # except for the /wiki/ part
break
# if we have been to this link before, break the loop
if newLink in visited:
print "Stuck in loop."
break
# or if we have reached Philosophy
elif newLink == "Philosophy":
print "Ended up in Philosophy."
break
else:
visited.append(currentPage) # mark this currentPage as visited
currentPage = newLink # make the the currentPage we found the new page to fetch
time.sleep(5) # sleep some to see results as debug