0

パスワードで保護されたいくつかの Web ページとサブリンクを取得したいと考えています。ユーザー名とパスワードがあり、通常のブラウザー UI からアクセスできます。しかし、後で参照できるようにこれらのページをローカル ドライブに保存したいので、WGET を使用してそれらを取得しています。

wget --http-user=USER --http-password=PASS http://mywiki.mydomain.com/myproject

ただし、パスワードを再度要求するため、上記は機能しません。システムがパスワードを再度要求することに悩まされることなく、これを行うためのより良い方法はありますか。また、特定のページのすべてのリンクとサブリンクを取得し、それらを単一のフォルダーに保存するための最良のオプションは何ですか.

更新: アクセスしようとしている実際のページは HTTPS ゲートウェイの背後にあり、同じページの証明書が検証されていません。これを乗り越える方法はありますか?

mysystem-dsktp ~ $ wget --http-user=USER --http-password=PASS https://secure.site.mydomain.com/login?url=http://mywiki.mydomain.com%2fsite%2fmyproject%2f
--2010-01-24 18:09:21--  https://secure.site.mydomain.com/login?url=http://mywiki.mydomain.com%2fsite%2fmyproject%2f
Resolving secure.site.mydomain.com... 124.123.23.12, 124.123.23.267, 124.123.102.191, ...
Connecting to secure.site.mydomain.com|124.123.23.12|:443... connected.
ERROR: cannot verify secure.site.mydomain.com's certificate, issued by `/C=US/O=Equifax/OU=Equifax Secure Certificate Authority':
  Unable to locally verify the issuer's authority.
To connect to secure.site.mydomain.com insecurely, use `--no-check-certificate'.
Unable to establish SSL connection.

--no-check-certificate オプションも試しましたが、機能しません。リクエストした実際のページではなく、このオプションを使用してログインページのみを取得します。

4

2 に答える 2

1

このように試してみませんか?

wget http://USER:PASSWD@mywiki.mydomain.com/myproject
于 2010-01-24T12:40:57.363 に答える
0

フォームで保護されたページにアクセスしようとしているようです。

そのオプションを使用して、--no-check-certificateこのフォーラム スレッドの提案に従うことができます: Can't log in with wget

于 2010-01-24T14:29:38.727 に答える