私はいくつかのウェブサイトをダウンロードするためにcrawler4jを使用しようとしています。.js
私が抱えている唯一の問題は、関数内のすべてのファイルに対してtrueを返しても、shouldVisit
ダウンロードされないことです。
@Override
public boolean shouldVisit(WebURL url) {
return true;
}
@Override
public void visit(Page page) {
String url = page.getWebURL().getURL();
System.out.println("URL: " + url);
}
.js
ファイルのURLが印刷されることはありません。