このスクリプトは、可能な数の Web サイトから、必要なデータを持っている Web サイトを特定します。は、すべての有効な URL のインデックスのリストを返すz
を介してすべての潜在的な Web サイトを実行します。また、無効だった Web サイトの値data_grabber(item)
も含まれます。None
import requests
a = range(0, 10)
b = 'http://www.grandexchangecentral.com/include/gecgraphjson.php?jsid=%r'
websites = []
for i in a:
result = b % a[i]
websites.append(result)
def data_grabber(item):
url = item
r = requests.get(url, headers={'Referer': 'www.grandexchangecentral.com'})
data = r.json
if data != None:
return websites.index(item)
z = [data_grabber(x) for x in websites]
z1 = filter(None, z)
これは を返します。これは[None, None, 2, None, None, None, 6, None, 8, None]
にz1
短縮され[2, 6, 8]
ます。これに関する唯一の問題は、可能な Web サイトのリストが非常に長くなる可能性があることです。そのためNone
、z
. アイテムz
の生成を防ぐことはできますか?None
助けてくれてありがとう。
data_grabber
編集:実際にはほとんどの時間がかかっていることに気付きました。それでもこれを知ってよかったです。