2

以下は、フォーラムで見つけたスクリプトです。30 の異なる URL を読み込んで、それらをすべて一緒に出力する必要があることを除いて、ほぼ正確に必要なものです。いくつかのオプションを試しましたが、スクリプトが壊れてしまいました。30 のすべての URL をマージして解析し、それらを印刷するにはどうすればよいですか。

あなたが私を助けることができれば、私はとても素晴らしいです、ty。

import sys
import string
from urllib2 import urlopen
import xml.dom.minidom

var_xml = urlopen("http://www.test.com/bla/bla.xml")
var_all = xml.dom.minidom.parse(var_xml)

def extract_content(var_all, var_tag, var_loop_count):
   return var_all.firstChild.getElementsByTagName(var_tag)[var_loop_count].firstChild.data

var_loop_count = 0
var_item = " "
while len(var_item) > 0:
   var_title = extract_content(var_all, "title", var_loop_count)
   var_date = extract_content(var_all, "pubDate", var_loop_count)
   print "Title:          ", var_title   
   print "Published Date: ", var_date
   print " "
   var_loop_count += 1

   try:
      var_item = var_all.firstChild.getElementsByTagName("item")[var_loop_count].firstChild.data
   except:      
      var_item = ""
4

2 に答える 2

0

これが標準の RSS である場合は、http://www.feedparser.org/を使用することをお勧めします。そこにあるすべてのアイテムを抽出するのは簡単です。

于 2010-06-24T17:54:47.127 に答える
0

var_item、var_title、var_date を上書きしています。各ループ。これらの項目のリストを作成し、各 var_item、var_title、var_date をリストに入れます。最後に、リストを印刷するだけです。

http://docs.python.org/tutorial/datastructures.html

于 2010-06-24T17:56:02.193 に答える