問題タブ [wikipedia]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
.net - WinFormsアプリチュートリアルに埋め込まれたウィキペディア
.NET WinFormsアプリケーション(C#またはVB)でウィキペディアの記事を表示する方法についてのチュートリアルをここに投稿できますか?記事をひもでつなぐことができれば、それをコントロールする必要はありません。
ウィキペディアのAPIに関する情報を見つけました。それを読んだ後、Webサービスへの参照を追加しましたが、これを機能させる方法が見つかりません。
また、可能であれば、wikiから画像をダウンロードする方法を説明してください(リンクまたは画像自体)。
php - PHP を使用してウィキペディアの JSON または XML からデータを抽出する
ウィキペディアのページからデータを抽出するために、PHP (おそらく Curl/XPath を使用しますか?) を使用したいと考えています。これについて最善の方法は何ですか?このプロジェクトには CakePHP を使用しますが、最初にこれを機能させる方法を理解する必要があります。
parsing - ウィキペディアのYQLオープンデータテーブル
ウィキペディアにアクセスするためのYQLオープンデータテーブルを作成した人はいますか?私はインターネットを探し回って、マイクロフォーマット、リンク、コンテンツなどのウィキペディアのページからさまざまな情報を抽出するためにYQLを使用している人々の言及を見つけましたが、すべてを結び付けるオープンデータテーブルを見つけることができませんでした。
xml - WikiXMLダンプver0.4の解析が困難になりました
「Parse-MediaWikiDump-1.0.4」と「Wikiprep.pl」スクリプトを使用して、ウィキペディアのXMLダンプを解析しようとしています。このスクリプトは、ver0.3 Wiki XMLダンプでは正常に機能しますが、最新のver0.4ダンプでは機能しないと思います。次のエラーが発生します。
wikiprep.pl行390のパッケージ"Parse:: MediaWikiDump::Pages"を介してオブジェクトメソッド"page"を見つけることができません。
また、「Parse-MediaWikiDump-1.0.4」ドキュメント@ http://search.cpan.org/~triddle/Parse-MediaWikiDump-1.0.4/lib/Parse/MediaWikiDump/Pages.pmの下で、 「制限バージョン0.4このクラスは、MediaWikiインスタンスからのバージョン0.4ダンプファイルをサポートするように更新されましたが、現在、これらのファイルで利用可能な新しい情報はサポートされていません。」
回避策は、次のレベルに到達するのに役立ちます。
注:代わりにSAXまたはSTAXパーサーを直接使用できないのはなぜか疑問に思われるかもしれません。ウィキペディアのダンプは25GBに加えて単一のファイルであり、スタック/メモリの問題は明らかです。したがって、上記のperlスクリプトはこの問題を解決しますが、現在私はこのバージョンの問題で立ち往生しています。
api - list=alllinks 混乱
私は夏に向けて研究プロジェクトを行っており、ウィキペディアからデータを取得して保存し、分析を行う必要があります。私はウィキペディア API を使用してデータを収集しています。
ここのAPIドキュメントlinks-alllinks
のオプションに関する私の質問は何ですかそことAPI自体
の両方で説明を読んだ後(それはダウンしてビットであり、セクションに直接リンクすることはできません)、私はそれが想定されていることを理解していると思います戻る。しかし、クエリを実行すると、予期しない結果が返されました。
私が実行したクエリは次のとおりです。
つまり、Google ページの最後のリビジョンを取得し、各リビジョンの ID、タイムスタンプ、ユーザー、コメント、およびコンテンツを含めて、XML 形式で返します。alinks (私は思った) は、Google ページ (この場合、最初の 40 個の固有のもの) を指すウィキペディア ページのリストを返してくれるはずです。
宣誓に対するポリシーが何であるかはわかりませんが、これは私が正確に得た結果です:
その<alllinks>
部分は、ランダムなグーブルグックと攻撃的なコメントの山です。私が得ると思っていたものはほとんどありません。かなりの検索を行いましたが、私の質問に対する直接的な答えが見つからないようです。
- オプションは何を
list=alllinks
返す必要がありますか? - なぜ私はそこにこのがらくたを入れているのですか?
javascript - jquery、クロスドメインネットワーク呼び出しを使用してウィキペディアの URL のコンテンツを読む
jQueryを使用して自分のドメインからウィキペディアのページを読みたいのですが、上記のようにしています。予想どおり、ウィキペディアはデータを純粋な html として送信していますが、$.ajax を使用してクロス ドメイン データを取得すると、受信したデータが json 形式であると想定されるため、エラーが発生し、ウィキペディアの応答を読み取ることができません。
jquery/javascript を使用してウィキペディアの URL を読み取る方法を教えてください (サーバー側の技術を一切使用せずに) また、ウィキペディアから json を取得するために使用できる API はありますか。
php - 毎週2つのMediaWikiを同期しますか?
2つのmediawiki(ウィキペディアのような)がインストールされています。1つはパブリックで、もう1つは内部です。
私たちは、テキスト記事や写真を内部で追加/変更/削除することで通常の作業を行います。
外部のものを毎週同期して更新したいのですが、最善のアプローチは何ですか?
注:2台のWindowsサーバーを使用しています(ただし、Linux(1台または2台のサーバーのセットアップ)に変更すると簡単になります)
乾杯
c++ - 分流場: オペレータへの引数がありません
私はshunting-yard アルゴリズムを実装しています。演算子に欠落している引数がある場合、検出に問題があります。ウィキペディアのエントリはこのトピックに関して非常に悪く、以下の例でもコードがクラッシュします。
たとえば、 には引数3 - (5 + )
がないため、正しくありません。+
アルゴリズムが に到達する直前に)
、演算子スタックには が含まれ- ( +
、オペランド スタックには が含まれます3 5
。次に、次のようになります。
+
オペレータースタックからポップします+
二項演算子であることを発見- 2 つのオペランドをポップし、演算子を適用し、結果 (
8
) をオペランド スタックにプッシュします。 (
次に、一致するものをスタックからポップし、続行します
+
では、引数が欠落していることをどのように検出できますか? ウィキペディアも更新する場合は、さらに称賛します:-)
wiki - ウィキペディアからインフォボックスのデータを取得するには?
ページへの URL を知っている場合、MediaWiki Web サービスを使用して右側の Infobox 情報を取得するにはどうすればよいですか?
scripting - ウィキペディアの記事の完全な変更履歴を取得するにはどうすればよいですか?
ウィキペディアの人気記事の履歴にあるすべてのページのコンテンツをダウンロードする方法が欲しいのですが。言い換えれば、私は単一の記事のすべての編集の完全な内容を取得したいと思います。どうすればこれを行うことができますか?
ウィキペディアAPIを使用してこれを行う簡単な方法はありますか?簡単な解決策として飛び出したものは何も見つかりませんでした。PyWikipediaボットページ(http://botwiki.sno.cc/w/index.php?title=Template:Script&oldid=3813)のスクリプトも調べましたが、役立つものは見つかりませんでした。PythonまたはJavaでそれを行うためのいくつかの簡単な方法が最善ですが、私はデータを取得する簡単な解決策を受け入れています。