問題タブ [mysqlimport]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票する
5 に答える
5915 参照

mysql - Mysql LOADDATAINFILE-入力データが予期せず切り捨てられました

データをテーブルにロードしようとしています(明らかに?)。私のテーブルは次のようになります。

次のようなデータファイルがあります。

しかし、私がそれを使用してロードするとき

最初の2つの列のみをロードします(hash、ihash、およびlast_updatedはnullです)。

多くの警告が表示されます(おそらく、mysqlが入力セットから3つの列を破棄し、デフォルトを割り当てているためです)

(20だけでなく、数ミリオンのレコードをロードするつもりです)

mysqlimportを使用しても同じ問題が発生します。

LOAD DATAステートメントから明示的なフィールドリスト(データベース内のファイルと同じフィールドと順序)を省略すると、同じ結果になりました。

MySQLのバージョンは5.0.22であり、入力ファイルに印刷できない文字はありません。

ヘルプ!

0 投票する
3 に答える
1240 参照

mysql - MySQL--tabダンプを簡単にインポートする

オプションを使用してMySQLデータベースをダンプしました--tab。これにより、テーブルごとに2つのファイルが作成されます(SQLファイルとcreate tableデータのタブ区切り値ファイル)。

このファイルのディレクトリをMySQLサーバーにインポートして戻す簡単な方法はありますか?にオプションが見つかりませんmysqlimport

0 投票する
1 に答える
1163 参照

mysql - ダンプを Amazon RDS にインポートする

データベース スキーマが既に含まれている Amazon RDS インスタンスを実行しています。mysqldump を使用し、このガイド [1] に従って、INSERT ステートメントを含むダンプをリモート インポートできます。

SQL ファイルのサイズはわずか 4 MB で、約 30,000 のステートメントが含まれています。この小さなサイズにもかかわらず、インポートが完了するまでに 40 分かかります。これを高速化することは可能ですか?このような小さなファイルで mysqlimport が価値があるかどうかはわかりません。自動コミットを無効にしようとしましたが、改善は見られませんでした。

インスタンスに SSH で接続したり、ファイルをローカル RDS ファイルシステムに移動したりできないことは既にわかっています。

ありがとう、セバスチャン

[1] http://aws.amazon.com/articles/2933

0 投票する
1 に答える
422 参照

mysql - データをmysqlデータベースにインポートできるようにCSVファイルを作成する方法

都市の大きなリストがあり、それをMysqlDBテーブルに挿入したいのですが

これらの都市のリストのcsvファイルを作成して、そのファイルをMysqlテーブルにインポートできるようにする方法を探しています。

更新:Mysqlテーブルに次のようなテーブル構造があります

たとえば、値を含むcsvファイルを作成しました

等々...

これをmysqlテーブルにインポートしようとすると、「1行目のCSV入力のフィールド数が無効です」というエラーメッセージが表示されます。

提案してください

0 投票する
0 に答える
555 参照

mysql - 大きな mysql .sql バックアップを復元する方法

復元しようとしたときのSQL mysqlバックアップ

メソッドはスタックして時間がかかります

何か提案はありますか?

0 投票する
2 に答える
395 参照

php - PHP を使用して mysql に拡張挿入を含む大きな sql ファイルをインポートしますか?

500MB 前後の大きな SQL ファイルをインポートしようとすると問題が発生します。100,000 の拡張挿入クエリがあります。私はあらゆる場所を探しましたが、まだ何も見つかりませんでした。Bigdump は拡張挿入をサポートしていないため、役に立ちません。memorty_limit を 512M に増やしたにもかかわらず、それらのすべてが PHP で MEMORY EXHAUST を引き起こす fopen() または file() を使用しているため、私が見たすべての提案はすべて失敗します。500MB の sql ファイルを読み取り、それを調べて、拡張挿入である挿入クエリを取得できるコードを探しています。

誰でもこれで私を助けることができますか???

0 投票する
1 に答える
1810 参照

php - PHP スクリプト内で mysqlimport を使用する

プログラムで多数の CSV ファイルを MySQL DB にインポートしようとしています。

いくつかの調査の後、LOAD DATA を見つけましたが、サーバーが許可していないため、可能ではありません。

次に、mysqlimportが実行可能な代替手段であることがわかりました。

何が起こっているかは次のとおりです。

FTP サーバーから多数の CSV ファイルをダウンロードし、1 つずつ、次のように実行します。

まず、ファイルのシンボリック リンクを作成します (テーブル名とは異なるファイル名を使用できなかったため)。次に、mysqlimportコマンドを実行し、出力を txt ファイルに送信します。最後に、シンボリック リンクを削除します。

実行すると、CSV一時ファイルが作成および削除されますが、DBにも出力txtにも何も表示されません。

コマンドをエコーし​​てターミナルで過去に実行すると、問題なく動作しますが、exec では何も起こりません。

引用符とバックスラッシュに関係があると思いますが、なんとか修正できませんでした。

どんな助けでも大歓迎です:P

編集: 私は既に**mysqlimpot bin を chmod** しましたが、それでも機能しませんでした!

0 投票する
2 に答える
1868 参照

mysql - mysqlimport の使用中に列を追加する

mysqlimportbash スクリプトを使用して、 5 つの異なるcsvファイルを共通のデータベース テーブルにインポートするために使用しています。

ここで、各ファイルに一意の ID を持つ共通テーブルに追加の列を追加したいと考えました。例えば。one.csv のすべてのエントリについて、id の値は 1 になります。bash

スクリプトを使用してインポートすると同時にこれを行う方法はありますか? 毎回 mysql コンソールにアクセスして、そこから実行したくありません。

任意の提案をいただければ幸いです。

0 投票する
2 に答える
942 参照

json - mysqlimport は JSON 入力を受け入れることができますか?

現在、パイプで区切られたテキストで構成される特定のログがあり、その形式は次のとおりです。

現在、各行の先頭からいくつかの単語を削除し、結果のテキスト ファイルに対して mysqlimport を実行するインポーター スクリプト (perl を実行してから mysqlimport を実行する bash) があります。

JSON を出力するデータ サービスにログをアップグレードしています。インポーター スクリプトは引き続き、その JSON のコンテンツを MySQL データベース テーブルにインポートします。素敵な JSON をパイプ区切りのファイルに変換して mysqlimport で使用するのは悪い形式のように感じますが、何かオプションはありますか? mysql のドキュメントやフォーラムには何も見つかりませんでした。