問題タブ [pywikibot]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - Python: 例外で空の値を返す
私は Python である程度の経験がありますが、正式なトレーニングが不足しているため、try & except 関数を使用してエラーを検出したことはありません。
ウィキペディアからいくつかの記事を抽出する作業を行っています。このために、私はタイトルの配列を持っていますが、そのうちのいくつかは最後に記事や検索結果がありません. ページ取得機能でこれらのいくつかの名前をスキップして、残りのスクリプトを実行し続けたいと思います。再現可能なコードは次のとおりです。
それを実行するライブラリは、このような方法を使用します。通常、これは非常に悪い習慣ですが、これは 1 回限りのデータ抽出のためのものであるため、ライブラリのローカル コピーを変更して機能させたいと考えています。編集私は今完全な機能を含めました。
エラーが発生しないページだけを取得するにはどうすればよいですか。このエラーまたは何らかのエラーを引き起こすリスト内のすべての項目を除外する方法があるかもしれません。存在しないページでは、「NA」などを返すことで問題ありません。予告なしにそれらをスキップしても問題ありません。ありがとう!
regex - 正規表現はこれを行うことができますか?
前:
|
と の間にあるものを見つけて]]
、それを使用して「wikiwoodenboek audio」を置き換えることは可能ですか?
後:
python - 一度に複数のウィキペディアの記事を抽出する方法は?
Python 2.7 アナコンダを使用しています。
ウィキペディアの Python パッケージを使用して、記事のタイトルのリストを抽出しました。
使い方はありますか
一度に複数の記事を抽出するには?for ループを使用しましたが、非常に時間がかかります。
より効率的/高速なソリューションを探しています。
python - Pywikibot は、本文で使用されるリンクを取得します
Pywikibot を使用して、wiki ページのコンテンツ テキストで使用されている記事のハイパーリンクのみを返すことは可能ですか? 試してみiterwikilinks()
ましたが、探している正しいリンクが返されません。別のメソッドまたは API 呼び出しはありますか?
pywikibot - pywikibot で maxlag 例外を検出する方法
編集貢献を分析するウィキペディア ボットを開発しています。残念ながら、1 回の実行を完了するのに何時間もかかります。その間、ウィキペディアのデータベース レプリケーションの遅延 (実行中のある時点) は、5 秒 (デフォルトの maxlag 値) を確実に超えます。API の maxlag パラメータの推奨事項は、ラグ エラーを検出し、X 秒間一時停止してから再試行することです。
しかし、私がしているのは、次の投稿を読むことだけです。
エラーを検出して再開する方法は? これはエラーです:
そのコード行でスローされた例外をキャッチすることが思い浮かびます。
しかし、ユーザーの貢献を再開することは非常に非効率的です。一部のユーザーは 400,000 回の編集を行っているため、最初からやり直すのはかなりの後退です。
これを行う例(エラーを検出して再試行する)をグーグルで検索しましたが、何も役に立ちませんでした。
mediawiki - Nuke と Pywikibot を使用して mediawiki ページを削除する方法
私はこのタスクでしばらく頭を悩ませてきました。Mediawiki Nuke 拡張機能と pywikibot を使用してみましたが、成功しませんでした。私はそれを知っているここで簡単なものが欠けています。一括削除で使用するパターンのどれもヒットを返さないため、ページを正しく識別できないようです.
私は自分自身、官僚および管理者としてログインしています。MW ver1.26。ページ上で [削除] オプションを使用しているときに、1 つのページを削除できます。
Nuke: ユーザー名、IP フィールドを空白のままにして、一括削除ページのページ名のパターンにページのタイトルまたはタイトルの一部を入力しても無駄です。私は何を間違っていますか?
例: 削除したいページ -- ページ 1、一部のページ%、%一部のページ%
pywikibot: 多分それは私の user-config.py ですか?
削除したいページを含むファイルを作成しました。
ファイル: delete_pages.txt
サンプル出力
編集:
Nuke:Mass Delete を取得して、削除するページをいくつか見つけました。最近のページのみが検索されます。最近が何を意味するのかわかりません。いくつかのページが見つかりましたが、他のページは見つかりませんでした。