問題タブ [wikipedia-api]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ruby-on-rails - wiki から html への変換
ウィキペディアから情報を取得するためにウィキペディア API を使用しています。ウィキのテキストをhtmlに変換するものはありますか?
メディアクロスを試しましたが、うまくいきません
javascript - ページ上の用語を純粋な JavaScript でウィキペディアの記事にリンクする
ブラウジング中に、 JavaScriptからウィキペディア APIを使用して単一の検索用語をその定義にリンクすることに関するこのブログ投稿に出くわしました。ブログ投稿の最後で、著者は次のような拡張機能について言及しています。
用語をウィキペディアの記事に自動リンクするプラグイン。
これは、私が取り組んでいるプロジェクトの要件に完全に適合しますが、残念ながら、元のソース コードを拡張するためのプログラミング スキルがありません。私が望むのは、Web ページに追加できる純粋な JavaScript スニペットを用意することです。これは、その Web ページ上の内部ウィキの記事を含むすべての用語をそのウィキにリンクします。
私はこれが多くを求めているかもしれないことを知っていますが、コードはもうすぐそこにあるように見えます.誰かがその仮想クレジットのために残りの仕事をしてくれるなら、喜んで報奨金を追加します.. ;)同様のリクエストを見たことがありますが、機能する実装はありません (これは単なる JavaScript (したがって移植可能な) ライブラリ/スニペット インクルードです)。
元のソース コードのサンプルを次に示します。だれかがこれに追加したり、自分でこれを実装する場合に追加する必要があるものを教えてくれたりしてくれることを願っています (その場合、うまくいけばコードを共有します)。何かをまとめる)。
更新
コメントで指摘されているように、すべての単語をリンクするのにかかる時間と、記事名にまたがる複数の単語を処理する方法の両方が私の懸念事項でもありました..
英語で最も一般的な 500 の単語をスキップすると、パフォーマンス上の利点が得られる可能性がありますが、このアプローチがどれほど実現可能かはまだわかりません。 ..
良い面としては、これはすべてクライアント側であり、用語のリンクの遅れは完全に許容されます。
または、マウスがホバリングしている/選択されている用語を検索することもできますが、これが複雑さを軽減または増加させるかどうかはわかりません..
更新 2
'Pointy' は、 から記事のトピックのリストを取得した後、いくつかのかなり標準的なハイライト スクリプトを変更することで、この機能を実現できると以下で説明しましたapi.php?action=query&list=allpages
。
繰り返しになりますが、私たちは内部ウィキを使用しているため、記事のリストは限定的で、あいまいさがなく、単語の一致で予想される問題のいくつかを克服するのに十分なドメイン固有のものである可能性があります。
これまでにいくつかの良い提案といくつかの実行可能なアイデアがあったので、これについていくつかの答えを得ることができるかどうかを確認するために報奨金を開始しています..
api - ウィキペディアの記事から抜粋を取得しますか?
私はウィキペディアAPIを上下に移動してきましたが、記事の抜粋(通常は最初の段落)を取得するための優れた方法があるかどうかわかりません。その段落のHTMLフォーマットも取得すると便利です。
スニペットに似たものを取得するために現在私が見ている唯一の方法は、全文検索を実行することです(例)が、それは私が本当に望んでいることではありません(短すぎます)。
HTML / WikiTextを野蛮に解析する以外に、ウィキペディアの記事の最初の段落を取得する方法はありますか?
php - PHPcURLを使用してウィキペディアAPIから段落を抽出します
これが私がウィキペディア(MediaWiki)APIを使ってやろうとしていることです-http://en.wikipedia.org/w/api.php
http://en.wikipedia.org/w/api.php?format=xml&action=opensearch&search= [keyword]でGETを実行して、キーワードの推奨ページのリストを取得します
http://en.wikipedia.org/w/api.php?format=json&action=query&export&titles= [page title]でGETを使用して、提案された各ページをループします
ページ上で見つかった段落を配列に抽出します
配列で何かをする
私は#3で立ち往生しています。段落の間に「\n\ n」を含むJSONデータがたくさん表示されますが、何らかの理由でPHPのexplode()関数が機能しません。
基本的に、ウィキペディアの各ページの「肉」(タイトルやフォーマットではなく、コンテンツのみ)を取得し、段落ごとに配列に分割したいと思います。
何か案は?ありがとう!
.net - WinFormsアプリチュートリアルに埋め込まれたウィキペディア
.NET WinFormsアプリケーション(C#またはVB)でウィキペディアの記事を表示する方法についてのチュートリアルをここに投稿できますか?記事をひもでつなぐことができれば、それをコントロールする必要はありません。
ウィキペディアのAPIに関する情報を見つけました。それを読んだ後、Webサービスへの参照を追加しましたが、これを機能させる方法が見つかりません。
また、可能であれば、wikiから画像をダウンロードする方法を説明してください(リンクまたは画像自体)。
api - list=alllinks 混乱
私は夏に向けて研究プロジェクトを行っており、ウィキペディアからデータを取得して保存し、分析を行う必要があります。私はウィキペディア API を使用してデータを収集しています。
ここのAPIドキュメントlinks-alllinks
のオプションに関する私の質問は何ですかそことAPI自体
の両方で説明を読んだ後(それはダウンしてビットであり、セクションに直接リンクすることはできません)、私はそれが想定されていることを理解していると思います戻る。しかし、クエリを実行すると、予期しない結果が返されました。
私が実行したクエリは次のとおりです。
つまり、Google ページの最後のリビジョンを取得し、各リビジョンの ID、タイムスタンプ、ユーザー、コメント、およびコンテンツを含めて、XML 形式で返します。alinks (私は思った) は、Google ページ (この場合、最初の 40 個の固有のもの) を指すウィキペディア ページのリストを返してくれるはずです。
宣誓に対するポリシーが何であるかはわかりませんが、これは私が正確に得た結果です:
その<alllinks>
部分は、ランダムなグーブルグックと攻撃的なコメントの山です。私が得ると思っていたものはほとんどありません。かなりの検索を行いましたが、私の質問に対する直接的な答えが見つからないようです。
- オプションは何を
list=alllinks
返す必要がありますか? - なぜ私はそこにこのがらくたを入れているのですか?
python - ウィキペディアのダンプを解析する
たとえば、このウィキペディアのダンプを使用します。
サブジェクトと値のマッピングを使用して配列を作成するために使用できる Python 用の既存のライブラリはありますか?
例えば:
wiki - MediaWiki api - 最後の変更を取得する
mediawiki api を使用して、ある日付以降に変更されたすべてのページのリストを取得するにはどうすればよいですか?
編集: 私はすでにこのクエリを見つけました:) ウィキペディアの Fe http://en.wikipedia.org/w/api.php?action=query&list=recentchanges&rclimit=500&rcnamespace=0
jquery - jQueryを使用したMediaWikiAPIからの応答がありません
ウィキペディアからJSONとしていくつかのコンテンツを取得しようとしました:
しかし、私は何の反応もありませんでした。ブラウザのアドレスバーに貼り付けると、次のようになります。
期待通りのコンテンツが得られます。どうしたの?
java - 数学記号と数式をサポートする Java/Javascript の MediaWiki レンダラー
数学記号と数式をサポートする MediaWiki 構文用の Javascript または Java のレンダラー/パーサーが必要です。