約 21 個の URL を含むサイトマップがあり、これらの各 URL にはさらに約 2000 個の URL が含まれています。元の 21 個の URL をそれぞれ解析し、それらに含まれる 2000 個の URL を取得してリストに追加できるようなものを作成しようとしています。
これを機能させようとして、数日間壁に頭をぶつけてきましたが、「なし」のリストを返し続けています。私は python を使ってまだ 3 週間しか経っていないので、本当に明らかな何かを見落としているかもしれません。どんな助けでも素晴らしいでしょう!
storage = []
storage1 = []
for x in range(21):
url = 'first part of the url' + str(x) + '.xml'
storage.append(url)
def parser(any):
tree = ET.parse(urlopen(any))
root = tree.getroot()
for i in range(len(storage)):
x = (root[i][0]).text
storage1.append(x)
storage2 = [parser(x) for x in storage]
また、カウンターで while ループを使用してみましたが、最初の 2000 の URL の後で常に停止しました。