問題タブ [load-data-infile]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
mysql - データを挿入しようとすると、奇妙なことが起こります。データが挿入されません
ここで問題があります。mysql データベースに入れたい約 13K 行のデータがあります。行が「短い」場合は挿入が行われますが、長い場合は失敗します。私は一日中これを理解しようとしてきましたが、あきらめようとしています。
これがテーブル構造です。
これはうまくいく行です。
これは失敗する大きな行です。
どんな助けでも大歓迎です。
これが私がデータベースにデータを取得するために使用しているものです
上記の大きなデータセットを読み込もうとしたところ、次のエラーが表示されました。エラー 1261 (01000): 行 1 にすべての列のデータが含まれていません
動作するコードは次のとおりです。
sql - LOAD DATA LOCAL、最初の行をスキップするにはどうすればよいですか?
CSVファイルをMySQLデータベースにロードしようとしていますが、最初の行をスキップしたいと思います。
実際、列の名前が含まれていて、興味深いデータは含まれていません。
これが私が使用しているクエリです:
sql - MySql一括読み込みコマンドラインツール
MySqlには、SQLServer用のbcpやOracle用のsqlldrなどの一括読み込みコマンドラインツールがありますか?SQLコマンドなどがあることは知っていLOAD INFILE
ますが、MySQLデータベースとは別のボックスにあるファイルを一括ロードする必要がある場合があります。
mysql - MySQL LOAD DATA INFILE - 主キーのないファイルのロード
「LOAD DATA LOCAL INFILE 'filename' INTO TABLE 'tablename'」を使用して、データ ファイルを mysql テーブルにロードしようとしていました。
問題は、ソース データ ファイルにすべてのフィールドのデータが含まれているが、主キー ('id' 列) がないことです。ソース データ ファイルの各行に一意の ID を追加する必要があります。そうしないと、インポートが完了しません。
ソース ファイルの主キーを無視するか、インポート中に自動的に増やすオプションはありますか?
すでに自動インクリメントの主キーに設定されています。
mysql - csvからmysql db形式への日付変換
load data infile 構文を使用して、csv ファイルを mysql db にエクスポートしています。csv の日付は2009/10/31 7:8:57.0
形式です。ロード中にこれを次のようなものに変換する方法はあります2009-10-31 07:08:57
か?
mysql - ある MySQL データベースから別の MySQL データベースにデータをインポートする最も効率的な方法
2 つの異なるデータベースのテーブルから別のデータベースにデータをインポートする PHP スクリプトを作成しています。私はサンプルデータで問題なく動作していますが、今では最終的な用途に似たデータを使用するようになりました.テーブルごとに2,500万以上のレコードがあり、毎日成長しています. 明らかに、効率は少し心配です。
これが現在の仕組みです。キーの整合性を維持するために、いくつかのフィールドを追加して、テーブル構造をコピーします。
そして、ここにSQLがあります。ON DUPLICATE KEY UPDATE
このインポートは定期的に実行し、「mydb」のデータを更新する必要があるため、ステートメントがあります。ありがたいことに、「他の」データベースからレコードが削除されることはありません (と思います!)。
私の質問はこれです:これはこれを行うための最良の方法ですか? 何百万ものレコードがあり、テーブルごとに合計で何ギガバイトものデータになることを考えると、より高速な他の方法はありますか?
mysql - Load data infile: CSV エンジンの代わりに、MySQL MyISAM テーブルに 95 GB の CSV ファイルをアップロードしますか?
次のコマンドを使用して、95 GB のCSVファイルをMySQLデータベース (MySQL 5.1.36)にアップロードしようとしています。
現在、このスクリプトを DOS 経由で実行していますが、データベースが応答していません。小さい CSV ファイル (1.5 GB) で問題なく動作します。このファイルサイズでうまくいきますか?
これをより効率的/迅速に行う方法について何か推奨事項はありますか? engine = CSV を代わりに使用できますか (インデックス作成がアクティブ化されていません! -> そのため、クエリの実行速度が非常に遅くなる可能性があります)。
アップデート
ヒントをありがとう、うまくいきました!
これが、データをチャンクに分割することを避けている他の人にとって役立つことを願っています.
mysql - MySQL でファイルからデータをロードするときにカスタム データを挿入する方法はありますか?
次のステートメントを使用して、ファイルからテーブルにデータをロードしています。
ここで、カスタム値を uid1 に入力したい場合、実際にファイルから読み取るように要求せずに 328383 と言うと、どうすればよいでしょうか? 約 10 個のファイルがあり、uid1 はこれらの各ファイルの識別子です。私はこのようなものを探しています:
助言がありますか?
sql - mysqlはLOADDATAINFILEと重複します
LOAD DATA INFILEを使用する場合、重複する行にフラグを立てる方法、または一部またはすべての重複を別のテーブルにダンプする方法はありますか?
sql - ファイル内のデータの読み込み + キーのパフォーマンスの無効化/有効化
約700万行のテーブルがあります。1 日に 1 回、約 200,000 の新しい行をこのテーブルに一括インポートする必要があります。これを行うには、最初に を使用してテーブルのキーを無効にしLOAD DATA INFILE
、次にテーブルのキーを再度有効にします。
私が抱えている問題は、ALTER TABLE my_table ENABLE KEYS
ステートメントにあります。
完了するまでに約 15 分かかります。を増やしてパフォーマンスを改善しようとしてmyisam_sort_buffer_size
いますが、役に立たないようです。他のアイデアはありますか?