Webサイトを解析するための小さなクラスを作成しました。
URLError例外があります:
def visit(self, url, referer=None, data=None):
(...)
# Return BeautifulSoup instance.
try:
return BeautifulSoup(self.opener.open(self.request))
# URLError.
except urllib.error.URLError as error:
return error
すべてが正常に動作します。しかし、私はこの関数のラッパーを作成する必要があります。
def get_links(self, *args, **kwargs):
# Get links with BeautifulSoup.
self.links = self.visit(*args, **kwargs).find_all('a')
Get_links関数は、URLError(403、404など)が発生するまでも正常に機能します。どうすればこの問題を解決できますか?継承の例外として何かありますか?