問題タブ [urllib3]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - urllib3による認証
urllib3を使用してWebページに接続しようとしています。コードを以下に示します。
URLがユーザー名とパスワードを使用して認証する必要があるWebページであると想定した場合、認証に正しいコードを使用していますか?
私はurllib2を使用してこれを非常に快適に実行しましたが、urllib3を使用して同じことを実行することはできませんでした。
どうもありがとう
python - urllib3とappengineを使用してPOSTリクエストに直接応答するにはどうすればよいですか?
AppEngineを使用してサードパーティとの永続的な接続を確立しようとしています。具体的には、100ミリ秒未満で応答する必要があるリアルタイム入札環境に接続しているため、永続的な接続によってプロセスが大幅に高速化されます。
これを行うために、私はurllib3を使用しようとしています(より良い方法がある場合は教えてください)リクエストハンドラーのpostメソッドが呼び出されたら、接続を開いたまま呼び出し元のURLに書き戻したいと思います。urllib3を使用してリクエストを開く方法は理解していますが、ハンドラーのpostメソッドが呼び出されたときに作成された接続を保持するにはどうすればよいですか。
現時点で私が試しているのは:
しかし、私はこれを行うことでまったく新しいつながりを開くことを恐れています。
ありがとう、サム
python - urllib3 Python ライブラリを使用して Cookie で http リクエストを作成するには?
既に発行された Cookie を使用して Web ページからソース コードを取得し、そのソース コードを txt ファイルに書き込もうとしています。この部分を削除するとcookies=cookie
、ソース コードを取得できますが、何らかの方法で http 要求で Cookie を送信する必要があります。
KeyError: None が表示されます
python - urllib3 または requests と Celery の使用
さまざまなソースからドキュメントを定期的にダウンロードするスクリプトがあります。これをセロリに移行するつもりですが、同時に接続プーリングを利用したいと思っていましたが、どうすればよいかわかりませんでした。
私の現在の考えは、リクエストを使用して次のようなことをすることです:
しかし、接続が無期限に開いたままになることを懸念しています。
新しいドキュメントを処理している限り、接続を開いたままにしておく必要があるだけです。
したがって、次のようなことが可能です:
ただし、この場合、接続セッションがインスタンス間で持続するかどうか、またはピッキング/ピッキング解除が完了するとリクエストが新しい接続を作成するかどうかはわかりません。
最後に、クラス メソッドでタスク デコレータの実験的なサポートを試すことができたので、次のようにします。
最後の方法は、この最善のアプローチのように思えます。これをテストします。ただし、ここにいる誰かがこれと同様のことをすでに行っているかどうか、またはそうでない場合は、これを読んでいる人のうちの 1 人が上記の方法の 1 つよりも優れたアプローチを持っているのではないかと考えていました。
python - python Requestsライブラリを使用してTwitterのユーザーストリームから消費する-切断を検出する方法は?
リクエストを使用して、Twitterのユーザーストリームから強力な消費方法を作成しようとしています。これまでに、次の基本的な作業例を作成しました。
ただし、切断を適切に処理できる必要があります。現在、ストリームが切断されると、上記はハングし、例外は発生しません。
これを達成するための最良の方法は何でしょうか?urllib3接続プールを介してこれを検出する方法はありますか?タイムアウトを使用する必要がありますか?
python - URL から JPG 画像を取得する (Python)
次の Python コードを使用して、http ULR から JPG 画像を取得しようとしています (GUI に表示するため)。
ただし、これにより、「IOError: イメージ ファイルを識別できません」というエラー メッセージが表示されます。
私が urllib3 を使用している理由は、永続的な接続 (複数の要求を送信するため) が必要なためです。これは、urllib/urllib2 では利用できません。
前もって感謝します。
http - urllib3 - http プロキシを設定できない
プロキシへの接続のプールを維持しようとしています。私のコードは次のようになります。
これを実行すると、失敗します:
私が間違っていることは何ですか?urllib3 docs によると、キーワード引数は urlopen に送信されますが、この場合は発生していないようです。
これは、 proxy キーワード arg の使用法を説明するurllibへのリンクです。
python-3.x - Python3がurllib3を見つけることができません
UbuntuシステムにPython3.2.3と一緒にPython2.7.3をインストールしています。
pipを使用してurllib3をインストールし、Pythonシェルからインポートできます。python3シェルを開くと、urllib3をインポートしようとすると、モジュールが見つからないというエラーが発生します。シェル内のhelp('modules')もurllib3をリストしません。
python3にurllib3を認識させる方法に関するアイデアはありますか?
python - urllib3/requests を使用すると、この奇妙な「無効な構文」エラーが発生する
他の人が提案したことに従ってください: URL の大きなリストが与えられた場合、どれがアクティブ/非アクティブかを確認する方法は何ですか?
urllib3 を使用してリクエストをインストールしようとすると、エラーが発生します。
リクエストをインストールしようとしています。
urllib3 を使用しようとしています。
最近、setuptools、pip、requests、urllib3 をインストールしました。その順番で。私は何かを台無しにしましたか?Python 2.5 btwを使用しています。
python - Pythonリクエストで時間制限のある応答のダウンロードを実行する方法は?
Pythonで大きなファイルをダウンロードするときは、接続プロセスだけでなく、ダウンロードにも時間制限を設けたいと思います。
私は次のPythonコードで試しています:
ドキュメントに正しく記載されているように、これは機能しません(ダウンロードには時間制限がありません):https ://requests.readthedocs.org/en/latest/user/quickstart/#timeouts
可能であれば、これは素晴らしいことです。
問題は、ダウンロードに時間制限を設ける方法です。