0

現在のアプリケーションでは、AI コミュニティでよく知られているインスタンス ベースの学習パラダイムに従って、ケース ベースのリポジトリを作成する必要があります。

ケースベースのリポジトリは、アプリケーションへの 2 つの呼び出し間で永続的に保存する必要があります。

ただし、これによって暗示されるシリアライゼーション/デシリアライゼーション (おそらく JSON またはキーと値のペアの軽量形式) が非常に多くの I/O オーバーヘッドを課し、適切なインデックス作成メカニズム (in- case-base のメモリ記述) はほんの一部を高速化するだけであり、実質的なメリットはありません。

今考えた解決策は2つ

a) I/O とインデックス作成を同時に実行して、ファイルに直接インデックスを作成してみてください。

b) ケースベースのメモリ内表現のメモリ イメージを何らかの方法でファイルに保存し、「ファイル解析」が単純な memcpy (ファイルのメモリ マッピングを含む) に縮小されるようにします。ファイル形式はバイナリであり、a) のような UTF-8 ベースではないことに注意してください。

誰かが同様の問題に遭遇し、b) の行に沿って何かを試したことがありますか?

4

1 に答える 1

0

メモリマップファイルを検討しましたか?

于 2012-07-23T15:17:09.320 に答える