1

私はPythonランタイムを使用しています(これが重要な場合)。number_found_accuracy に苦労しています。この特定のフィールドについては、API のドキュメントが少し不足しています。その名前は、たとえば 200 のような数値に設定することを示唆しているようです。これは、「200 以内の精度を目指してください」という意味です。ただし、他のアカウントを読んで、現在この値の最大値 (API MAXIMUM_NUMBER_FOUND_ACCURACY 内) が 10,000 であることを考えると、これは、得られると予想される数値を超える値を設定すると、検索メカニズムが正確に最善を尽くすことを示唆しています。

私の問題は、約 32,000 件の結果が返されると予想される検索を行っていることです。number_found_accuracy を最大に設定しましたが、結果にはさまざまな number_found があり、かなりずれているようです。たとえば、90,000 を返します。ちなみにカーソルを使っています。number_found とは関係なく、インデックスに存在するドキュメントの総数を調べる方法はありますか? より一般的には、このような状況をどのようにデバッグしますか? 最後に、結果が 10,000 件を超える場合、検索結果の number_found プロパティは役に立ちますか? そうでない場合、他のユーザーは GAE で何を使用し、統合して BigQuery に呼び出していますか?

洞察をありがとう。

4

1 に答える 1

0

このページでは、最低精度と書いてあります。したがって、より大きな数値を指定すると、精度が低下します。ドキュメントのカウントには時間がかかる場合があるため、ドキュメントが多数ある場合は、この数を大きく設定すると効果的です。これが、最大値が非常に高い理由です。しかし、たとえば、マージン 100 のマージンで正確にしたい場合は、100 を入力します。3099 あるのに 3000 と報告される場合があります。

于 2013-06-24T19:27:14.710 に答える