0

カスタム ETL ツールに取り組んでいます。データベースからファイルにデータを抽出します。ファイルには clob データが含まれる場合があります。読み込み側では、ファイルを取得してデータベース テーブルに書き込みます。clob データが導入されるまで、すべてのファイルが正しく機能します。ファイルには何百万ものレコードを含めることができます。OleDb を使用してデータベース スキーマを生成し、アダプターを使用してデータをチャンク単位で読み取ることによって更新を行います。

私の質問は、Clob データをデータベースに挿入する方法です。ファイルに数百万のレコードが含まれており、clob が各レコードに対して最大 4 GB のデータをサポートしている場合。

これらのケースをどのように処理し、アプリケーションをより高速に実行し、エラーが発生しにくいようにする必要がありますか?

ありがとう、バニー

4

1 に答える 1

1

あなたの質問は明確ではありません。

clob データは、ロードされている他のフィールドとインライン化されていますか?

あなたのコードは 1 つの clob を挿入しても機能しますか?

CLOB または BLOB を使用してデータを抽出してロードする場合、これらを個別のファイル (CLOB ごとに 1 つの CSV ファイルと 1 つのファイル) として保持し、レコードごとに 2 つの手順でロードを実行します。最初に csv ファイルから CLOB 以外のデータを挿入し、次にclob を挿入してレコードを更新します。

于 2011-02-09T01:13:35.477 に答える