問題タブ [wikimedia]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
1 に答える
5171 参照

java - jar 内の .class ファイルを更新すると例外がスローされる

wikimedia プラグインを OpenVMS で実行するように移植しようとしていますが、クラスを変更する必要があります。を使用して jar 内の .class ファイルを更新しようとしていますが、jar uf jar-file .class-fileこれを行うと次のようになります。

jar に 2 つの LICENSE.txt ファイルがあり、それらを取り除くことができないようです。

新しい .class ファイルを jar に入れる方法、または重複ファイルを取り除く方法についてのアイデアはありますか?

0 投票する
1 に答える
723 参照

api - list=alllinks 混乱

私は夏に向けて研究プロジェクトを行っており、ウィキペディアからデータを取得して保存し、分析を行う必要があります。私はウィキペディア API を使用してデータを収集しています。

ここのAPIドキュメントlinks-alllinksのオプションに関する私の質問は何ですかそことAPI自体 の両方で説明を読んだ後(それはダウンしてビットであり、セクションに直接リンクすることはできません)、私はそれが想定されていることを理解していると思います戻る。しかし、クエリを実行すると、予期しない結果が返されました。

私が実行したクエリは次のとおりです。

つまり、Google ページの最後のリビジョンを取得し、各リビジョンの ID、タイムスタンプ、ユーザー、コメント、およびコンテンツを含めて、XML 形式で返します。alinks (私は思った) は、Google ページ (この場合、最初の 40 個の固有のもの) を指すウィキペディア ページのリストを返してくれるはずです。

宣誓に対するポリシーが何であるかはわかりませんが、これは私が正確に得た結果です:

その<alllinks>部分は、ランダムなグーブルグックと攻撃的なコメントの山です。私が得ると思っていたものはほとんどありません。かなりの検索を行いましたが、私の質問に対する直接的な答えが見つからないようです。

  1. オプションは何をlist=alllinks返す必要がありますか?
  2. なぜ私はそこにこのがらくたを入れているのですか?
0 投票する
1 に答える
1794 参照

geolocation - ウィキペディアで利用可能な空白の SVG マップで世界の中心を見つける

このデモで行われているように、SVG マップに地理的位置 (緯度、経度) をプロットする必要があります: http://people.opera.com/danield/svg/where-am-i.svg

ただし、全世界が表示されていない空白のマップが 3 つあります。そのうちの 1 つがhttp://en.wikipedia.org/wiki/File:BlankMap-USA-states-Canada-provinces,_HI_closer.svgです。

それについての情報は、Web 上にはめったにないか、まったくありません。しばらく探していましたが、地図の知識が必要なようです。上記のデモでは、最初に世界の中心を見つけてから、係数を掛けていることに気付きました。それがどのように行われるかは、実際には説明されていません。

そして、世界の中心までは、一部しか表示されていない地図で見つけられるだろうか。

助けてくれてありがとう。

0 投票する
1 に答える
4164 参照

api - ウィキペディアの検索結果は、api (opensearch) と通常の Web インターフェースで異なりますか?

テキスト クエリ「major+histocompatibility+complex+class+II+antigens」では、Web インターフェイスと API インターフェイスを使用して異なる結果が得られます。API を使用して Web インターフェイスと同じ結果を得る方法はありますか?

Web インターフェイスを使用したクエリ:

http://en.wikipedia.org/w/api.php?action=opensearch&search=major+histocompatibility+complex+class+II+antigens

API を使用したクエリ:

http://en.wikipedia.org/w/api.php?action=opensearch&search=major+histocompatibility+complex+class+II+antigens

APIリファレンス(http://en.wikipedia.org/w/api.php)とSOに関する質問(http://stackoverflow.com/questions/1397938/is-there-any-api-in- java-to-access-wikipedia-data) を参照しましたが、この問題に対処したものはありませんでした。opensearch API は別の検索エンジンを使用していますか?

0 投票する
1 に答える
551 参照

xml - ウィキクォートのRSS/xml解析のフィード

ウィキクォートからfeed/rssを介して引用符を引き出す方法はありますか?使用法は、見積もりジェネレーターです。ソースを確認しましたが、フィードへのリンクが機能しません。ウィキペディアでRSSとフィードを定義する検索結果を取得し続けるため、検索が困難です。

0 投票する
4 に答える
2736 参照

wikipedia - Wikipedia API:ページのリビジョン数を取得するには?

mediawiki API を使用してウィキペディア ページのリビジョン数を取得する方法を知っている人はいますか? この API ドキュメントを読みましたが、関連する API が見つかりません:
リビジョン API

0 投票する
1 に答える
614 参照

python - 特別なエクスポートを使用してウィキペディアから記事をダウンロードする

http://en.wikipedia.org/wiki/Special:Exportから数千の記事の完全な履歴をダウンロードできるようにしたいので、それを自動化するためのプログラムによるアプローチを探しています。結果をXMLとして保存したい。

これが私のウィキペディアのクエリです。私はPythonで次のことを始めましたが、それでは有用な結果が得られません。

0 投票する
1 に答える
658 参照

parsing - Web サイト解析のための高度な Excel / Visual Basic

私は 500 のウィキペディア / ウィキメディア ウィキ、トーク ページ、履歴ページへのリンクを Excel ドキュメントに持っています。これを解析して、トーク ページで「広告」または「宣伝」に言及しているウィキの数、期間などを判断したいと考えています。 Wiki の平均、編集頻度など。

完全な HTML を取得する Visual Basics ユーザー定義関数を作成する方法を理解しました。必要な情報を引き出すことができるように、2 つのタグまたは識別子の間のテキスト (画面に表示されるテキスト) を取得するプラグインまたはその他の方法はありますか?

私は、プロの開発者と比較して、コーディングの経験が非常に限られているビジネス プロフェッショナルです。しかし、正しい方向といくつかの優れたチュートリアルを教えていただければ、私は学ぶことができます. また、誰かが助けてくれるなら、誰かに少しお金を払うことにも興味があります.

0 投票する
2 に答える
205 参照

perl - Perl を使用してウィキペディアのネストされたタグを削除する方法

テキストファイルにウィキメディアタグがあります。入れ子になっている場合でも、これらのタグを最初から最後まで取り除く必要があります。私はパールを使用しています。

ネストされたタグで問題に直面しています。削除できなかったこれらのタグの例を 2 つ挙げます。

例 1:

例 2: 例 1 の "{{" の代わりに、タグ "]]" を使用します。

この問題を解決するために誰かが私を特定してくれることを願っています

0 投票する
1 に答える
2097 参照

jquery - jqueryを使用してウィキメディアからjson文字列を解析します

ウィキページからインフォボックスを取得しようとしています。このために私はwikiAPIを使用しています。以下は、jsonデータを取得するURLです。

http://en.wikipedia.org/w/api.php?action=query&prop=revisions&rvprop=content&format=json&titles= "+ first +"&rvsection = 0

ここで、firstは、ウィキペディアの記事のタイトルを含む変数です。

このデータを解析して意味のあるhtmlを作成するのは非常に複雑だと思います。

最初は関数を使って$.eachいました。しかし、ループは非常に深く、必要な実際のデータを取得するために6〜7回使用する必要がありました。これよりも良い選択肢があると思います。私を助けてください。

参照用のjsonデータ