0

リンクが Web サイト (この場合は 'twitter.com') で公開されているかどうかを確認するスクリプトを作成しました。

私がこれを行った方法がおそらく最善ではないことは理解できますが、私はPythonとプログラミング全般にかなり慣れていません。

とにかく、リンクのファイルからこれを実行しようとしているので、1 つの URL の生の入力は不要になり、ファイルから複数の URL チェックを実行して、「twitter.com」が含まれているかどうかを確認します。

これが私のコードです。動作していますが、 raw_input() を使用しています

    from bs4 import BeautifulSoup

import requests

link_list = []

status = ' Live!!'

domain = 'twitter.com'

url = raw_input("Enter a website to extract the URL's from: ")


r  = requests.get('http://www.' +url)

data = r.text

soup = BeautifulSoup(data)

for link in soup.find_all('a'):
    links = (link.get('href'))
    link_list.append(links)


if domain in ', '.join(link_list):
    print url +status

明確にするために、行ごとに URL のファイルがあり、「twitter.com」が含まれているかどうかを確認したいと思います。

色々やってみたけど全然ダメ!!

どんな助けでも大歓迎です。

4

1 に答える 1

1

ファイルを開いて行を配列に読み込みたい場合は、簡単です。

with open(filename) as f:
    urls = f.readlines()

その後urls、名前のリストになります。

次に、このリストを反復処理できます。

for url in urls:
    link_list = []
    r  = requests.get('http://www.' +url)
    data = r.text
    soup = BeautifulSoup(data)

    for link in soup.find_all('a'):
        links = (link.get('href'))
        link_list.append(links)

    if domain in ', '.join(link_list):
        print url +status
于 2013-10-21T21:29:03.610 に答える