パスワードで保護されたいくつかの Web ページとサブリンクを取得したいと考えています。ユーザー名とパスワードがあり、通常のブラウザー UI からアクセスできます。しかし、後で参照できるようにこれらのページをローカル ドライブに保存したいので、WGET を使用してそれらを取得しています。
wget --http-user=USER --http-password=PASS http://mywiki.mydomain.com/myproject
ただし、パスワードを再度要求するため、上記は機能しません。システムがパスワードを再度要求することに悩まされることなく、これを行うためのより良い方法はありますか。また、特定のページのすべてのリンクとサブリンクを取得し、それらを単一のフォルダーに保存するための最良のオプションは何ですか.
更新: アクセスしようとしている実際のページは HTTPS ゲートウェイの背後にあり、同じページの証明書が検証されていません。これを乗り越える方法はありますか?
mysystem-dsktp ~ $ wget --http-user=USER --http-password=PASS https://secure.site.mydomain.com/login?url=http://mywiki.mydomain.com%2fsite%2fmyproject%2f
--2010-01-24 18:09:21-- https://secure.site.mydomain.com/login?url=http://mywiki.mydomain.com%2fsite%2fmyproject%2f
Resolving secure.site.mydomain.com... 124.123.23.12, 124.123.23.267, 124.123.102.191, ...
Connecting to secure.site.mydomain.com|124.123.23.12|:443... connected.
ERROR: cannot verify secure.site.mydomain.com's certificate, issued by `/C=US/O=Equifax/OU=Equifax Secure Certificate Authority':
Unable to locally verify the issuer's authority.
To connect to secure.site.mydomain.com insecurely, use `--no-check-certificate'.
Unable to establish SSL connection.
--no-check-certificate オプションも試しましたが、機能しません。リクエストした実際のページではなく、このオプションを使用してログインページのみを取得します。