問題タブ [riak-search]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
solr - Riak Yokozuna のカスタム erlang ターム エクストラクタはありますか?
私の基本的な要件は実際には proplist であり、application/erlangproplist 用のカスタム エクストラクタを作成できると思います。
好奇心からですが、Riak は Erlang で書かれているため、既に利用可能な Erlang 用語抽出プログラムはありますか?
Erlang 用語はタプル、proplist などの多くの形式になる可能性があるため、非常に複雑な抽出プログラムになると思います。
erlang - RIAK riak-erlang-client キー値 integerbinary (::<<_|128>>)
okeuday/uuid lib を使用して <<_|128>> V4 UUID を生成し、それを RIAK キーとして使用してデータを保存しようとしています。
git://github.com/basho/riak-erlang-client.git マスター バージョンを使用します。
バイナリ int をキーとして使用すると、データは保存されず、エラーも発生しません。バイナリ文字列 uuid:uuid_to_string(uuid:get_v4()) として変更すると、コードが機能し、データを保存できます。
キータイプの不一致を避けるために、新しいバケットを開始しました。
芭蕉マニュアルによると、キーとして任意のバイナリ値を使用できます???
私は間違っていますか?
riak - 並列マップ削減ジョブの worker_limit_reached
Riak で以下の map reduce ジョブを実行しようとしているホストが 50 あります。worker_limit
以下のエラーが表示され、一部のホストが到達したことについて不平を言っています。
このエラーを回避するためにシステムを調整できるかどうかについての洞察をお探しですか? に関するドキュメントがあまり見つかりませんでしたworker_limit
。
{"phase":0,"error":"[worker_limit_reached]","input":"{<<\"provisionentry\">>,<<\"R89Okhz49SDje0y0qvcnkK7xLH0\">>}","type":" result","stack":"[]"} クエリ MapReduce(path='/mapred', reply_headers={'content-length': '144', 'access-control-allow-headers': 'Content-Type ', 'server': 'MochiWeb/1.1 WebMachine/1.10.8 (その頭は偽物ですね)', 'connection': 'close', 'date': 'Thu, 27 Aug 2015 00:32:22 GMT', 'access-control-allow-origin': '*', 'access-control-allow-methods': 'POST, GET, OPTIONS', 'content-type': 'application/json'}, verb='POST' , headers={'Content-Type': 'application/json'}, data=MapReduceJob(inputs=MapReduceInputs(bucket='provisionentry', key=u'34245e92-ccb5-42e2-a1d9-74ab1c6af8bf', index='testid_bin'), query=[MapReduceQuery(map=MapReduceQuerySpec) (language='erlang', module='datatools', function='map_object_key_value'))]))
spring - Solrでの名前検索
重複した質問を投稿している場合はお詫びします。もしそうなら、元の質問を教えてください。
私はsolrの初心者で、solrを使用して順序付けられた単語名の検索を実現しようとしています.solrからの次の応答を期待しています
spring data solr を使用して MethodName を使用してクエリを生成しています。このデータにインデックスを付けるためにスキーマを作成する方法と、使用するフィルターを教えてください。
また、適切な結果からスプリング データ solr を使用して methodName を使用してクエリを作成する方法を教えてください。
python - Riak、既に使用されているインデックスを削除するには?
Python ライブラリを使用して、バケットで既に使用されているインデックスを削除したいと考えています。
しかし、私はこのエラーが発生します:
わかりました。まず、バケットとインデックスの間のバインディングを削除する必要があります。search_index
だから私は最初にバケットのプロパティを無効にしようとします:
成功しないと、毎回 HTTP エラーがError setting bucket properties.
ライブラリによって " " としてキャストされます。
別の riak-search インデックスを割り当てることはできますが、使用しない riak クラスターのインデックス作成にストレスを感じたくありません。
search_index
Python ライブラリを使用してバケット構成から削除する方法はありますか?
riak - riak 検索を使用して一致するドキュメントを見つけて更新する
riak-search
修正が必要なドキュメントを検索して更新する正しい方法は何ですか? 設計上、riak-search は riak-kv コンテンツに固執しないインデックスです。ただし、負荷の高いチェック/書き込み操作では、インデックスが riak-kv コンテンツと一致しません。
限られた数の一致するエントリで読み取り/書き込み操作を制限するために、riak-search を当てにしています。
この種のアルゴリズムを使用して操作することはできません。
私はそれに多くの問題を見ます:
- まず、riak-search が追いつくと、最初に変更したドキュメントが見つからず、ページネーションが壊れてしまいます。
- 最後からページ付けすることは魅力的な代替手段ですが、それでsolrにストレスを与えるか、
max_search_results
限界に達します - テスト
num_found
はループを壊す良い方法ではありません。私はそれを確信しています。
編集を開始する前に、すべての riak-kv キーをロードする必要がありますか? 私のニーズを達成するための適切なアルゴリズム/方法はありますか?
編集:
私のユースケースは次のとおりです。私は、文字列トークナイザー アルゴリズムからの用語の配列を含むテキスト ドキュメントを保存します。これは、機械学習システムが進化し、時間の経過とともに改善されるためです。文字列トークナイザーは、ワード クラウドを作成するだけです。
バケットの種類が増え続けており、以前のトークナイザー バージョンから古い用語配列にパッチを適用する必要があります。それを達成するために、古いドキュメント、または新しいトークナイザー バージョンで修正された場所を知っている悪いトークンを含むドキュメントを検索したいと考えています。
したがって、私の検索クエリは次のいずれかです。
- 用語:badtoken
- 作成日:[2000-11-01 から 2014-12-01]
日付を扱うことは問題ではありませんが、トークンを扱うことは問題です。ドキュメントからbadtokenを削除すると、「badtoken」を検索しながら、数秒でsolrインデックスが変更されます。それは私の現在のページネーションを変更し、ドキュメントを見逃すことになります。
今のところ、インデックスを使用することを断念し、単純にバケツ全体を調べました。
riak - 新しく作成したインデックスで既存のデータをインデックス化する方法
新しい solr スキーマを作成しました。新しいスキーマから新しいインデックスを作成しました。データが存在する既存のバケット タイプがあります。作成された新しいインデックスで既存のデータをどのようにインデックス化できますか?
solr - Xinclude による SolrConfig の組み込み
現在、Riak KV サーバー内で Solr 実装を使用しています。Riak のデフォルトに関して、またソフトウェアのアップグレードを恐れないように、コアの SolrConfig.xml に追加の構成を含める必要があります。これは、Ansible コマンドを使用してプログラムで行います。工場出荷時の設定solrconfig.xmlにできるだけ少ない行を追加したい。
この種のパターンを使用したかったので、構成内にたくさんの<searchComponent>
とを含める必要があります。<requestHandler>
次のような構成ファイルを使用します。
残念ながら、Xerces はxpointer()
スキーマをサポートしておらelement()
ず、要素インデックスを受け入れる唯一の要素として、インクルード コンテナーが子を持つのと同じ量の挿入が必要になります。
どうすればこのインクルージョンを整然と達成できますか?
- xerces から別の xmlparser に切り替えるのは簡単ですか? ベンダーのソリューションをできるだけ変更したくないことを思い出してください。
- SolrConfig 文法には、構成に含めることができる中立的な要素がある可能性があります (たとえば、 /config/NEUTRALMAGICTAG/requestHandler は /config/requestHandler として解釈されます)。
- XInclude を放棄して忘れて、純粋な ansible ファイル エディションを使用する必要がありますか?
java - Java mapreduce と Riak の検索
Riak erlang と JS mapreduce の例を見ました。しかし、私はJAVAの男です:)、JAVAでそれをするのが好きです。さらに、JS mapreduce は非推奨です。
- Javaでそれを行う方法はありますか?よろしければサンプルをどうぞ。
- Riak 2.0 Search の Java サンプルも探していました。
Riak docs では、riak-search のステップは巨大に見えます。これは、mapreduce と検索の小さなクックブックのように見えるかもしれません。例を挙げて実際の手順で要約できますか。
問題
私はgithubで次の手順を試しました。