サイトから何百もの PDF ドキュメントをダウンロードしたいと考えています。SiteSucker などのツールを試してみましたが、ファイルとそれらにリンクするページの間に「分離」があるように見えるため、機能しません。ウェブサイトのプログラミングやスクレイピングについてあまり知らないので、これをより適切に説明する方法がわかりません。これが何であり、どのように回避できるかについてのアドバイスはありますか?
より具体的には、次のようなページに保存されている国連決議の PDF をダウンロードしようとしています: http://www.un.org/depts/dhl/resguide/r53_en.shtml
国連のサイトには「検索機能」が組み込まれているようで、SiteSucker のようなダミーのスクレイピングが意図したとおりに機能しません。
他に使用できるツールはありますか?