問題タブ [wikimedia]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
wikimedia - 新しいタブまたはウィンドウで開くようにウィキメディアリンクをコーディングする方法
私はウィキメディアエンジンに基づくウィキ、つまりウィキペディアで使用されているのと同じウィキテクノロジーを使用しています。
新しいウィンドウまたはタブでターゲットURLを開くWiki言語でリンクをコーディングするにはどうすればよいですか。基本的に、私は次と同等のwiki言語が必要です。
wikimedia - 既存の名前空間でのウィキメディアのロックダウン
私はドキュメントに Media Wiki を使用しています。たとえば、名前空間を含む多くのページを追加した後、INTERN:My Page
またはPublic:My Page
この既存の名前空間の読み取りアクセスを制限したい場合。
拡張機能「ロックダウン」を見つけたので、それを新しいカスタムの名前空間に使用できます。
既存の名前空間に対して同じコードを試してみると、古いページにアクセスできません。ページが存在しないようです。
既存の名前空間へのアクセスを制限する方法はありますか? 名前空間 ID はデータベースのどこかにありますか?
hadoop - Java Mapper/Reducer を使用した Hadoop ストリーミング
一部のウィキペディア ダンプ (圧縮された bz2 形式) に対して Java Mapper/Reducer を使用して Hadoop ストリーミング ジョブを実行しようとしています。ウィキメディアが最近リリースしたインターフェースであるWikiHadoopを使用しようとしています。
WikiReader_Mapper.java
WikiReader_Reducer.java
私が実行しているコマンドは
そして、私が得ているエラーメッセージは
古い Hadoop API よりも新しい Hadoop API の方がよくわかります。マッパーとレデューサーのコードは 2 つの異なるファイルにあるため、ジョブの JobConf 構成パラメーターを定義すると同時に、hadoop ストリーミングのコマンド構造に従います (マッパーとレデューサーのクラスを明示的に設定します)。マッパーとリデューサーのコードをすべて 1 つのクラス (Configured を拡張し、Tool を実装します。これは新しい API で行われます) にラップし、クラス名を Hadoop ストリーミング コマンド ラインに渡すのではなく、クラスを別々にマップして縮小しますか?
mysql - ウィキペディアのダンプ ファイルからの BLOB 値の読み取り
ウィキペディアのダンプ ファイルをダウンロードし、そのデータを MySQL に転送しました。
次のクエリを使用して、page_restrictions
フィールドを blob から文字列に変換しました。
また、次を使用して値を読み取ろうとしましold_text
たが、機能しません。
それの何が問題なのですか?
redirect - MediaWiki API リダイレクトは壊れていますか?
それらを機能させる方法がわかりません。公式の API ドキュメントによると:
http://www.mediawiki.org/wiki/API:Query#Resolving_redirects
次の要求を意味します。
http://en.wikipedia.org/w/api.php?action=query&titles=Hybrid%20Cars&prop=info|リンク&リダイレクト
Hybrid Cars を解決し、Hybrid Vehicles ページにリダイレクトしますが、そうではありません。つまり、私は次のようなものを期待していました:
http://en.wikipedia.org/w/api.php?action=query&titles=Hybrid%20Vehicles&prop=info|links
api - WikiMedia API を使用して特定の「Portal:」のランダム ページを取得する方法
ウィキメディア API を使用して、特定のウィキメディア ポータルのランダムな記事を取得する方法はありますか?
たとえば、Portal:Scienceのランダムなページが必要です。
誰もこれを行う方法を知っていますか?
c# - プログラムで .NET の WikiPedia から記事を取得する
プログラムでウィキペディアから記事を取得する必要があり、セクションとそのコンテンツを HTML または生のテキストの形式で取得できる必要があります。
このページを例に取ります: http://en.m.wikipedia.org/wiki/LINQ
この .NET Api を見つけましたが、記事の取得をサポートしていないようです。
https://github.com/svick/LINQ-to-Wiki
使用できる .NET ライブラリはありますか? または、Web サイトの HTML コンテンツを解析する必要がありますか?
PSウィキペディアにAPIがあることは知っていますが、それを使用して必要なことを行う方法の例は見当たりません。
mysql - ウィキペディアのダンプ ファイル
Persian Wikipedia 2007 のダンプ ファイルをローカルの mysql 5.6 にインポートしました。非ラテン文字のユーザー名が正しく保存されていないようです。修正する方法はありますか?
dump - google art project からウィキメディアをダウンロード
私はかなり新しいです。Google アート プロジェクトからウィキメディアのフル解像度の画像をダウンロードする方法を探していました。リンク: http://commons.wikimedia.org/wiki/Category:Gigapixel_images_from_the_Google_Art_Project
最初に考えたのはダンプをダウンロードすることでしたが、検索しているイメージがどのダンプに含まれているかを知るにはどうすればよいでしょうか? ダンプ/コーディングの処理経験はほとんどありません。プロセスを自動化する方法を学ぶことに本当に興味があります。誰かが私を助けることができますか?
ありがとう!