問題タブ [data-dump]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
raspberry-pi - プライベート生放送オンライン
Raspberry Pi、カメラ モジュール、WiFi モジュール、いくつかのモーターをベースにした自家製の陸上ドローンを構築したいと考えています。インターネットで制御できるようにして、リモートで使用し、小さなタスクを実行できるようにしたいと考えています。これは難しいプロジェクトですが、私の唯一の質問は、コンピューターとドローンの間でライブ データ ダンプを送信できる Web ページはありますか? ということです。それは Parrot AR Drone のように機能します。前もって感謝します。
php - PHP を使用して、Wiktionary XML データ ダンプを MySQL データベースに解析する
わかりました。ウィキメディアが提供するウィクショナリーデータ ダンプを解析しようとしています。
私の意図は、その XML データ ダンプを MySQL データベースに解析することです。この XML の構造に関する適切なドキュメントが見つかりませんでした。また、実際には非常に巨大なため(〜1 GB)、ファイルを開くことができません。
PHPスクリプトを使用して解析することを考えましたが、続行するXML構造についてはまったくわかりません。したがって、PHP を使用して MySQL に既に解析した (または解析するツールについて考えている) 人がいる場合は、詳細を共有してください。PHPに無ければ他の方法でも構いません。
この投稿 ( http://www.igrec.ca/lexicography/installing-a-local-copy-of-wiktionary-mysql/ ) に従いましたが、うまくいきませんでした..:( 誰かがこれに成功した場合プロセス, 助けてください. よろしくお願いします.
python-3.x - スタックオーバーフローダンプのxmlファイルをcsvファイルに変換する方法
27GB 近くの .xml 形式のスタック オーバーフロー データ ダンプ ファイルがあり、それらを .csv ファイルに変換したいと考えています。誰か教えてください、xmlをcsvファイルまたはpythonプログラムに変換するツール
excel - ストアド プロシージャの結果を Excel にエクスポートする
ストアド プロシージャの結果を Excel ファイルにエクスポートすることに関して、このフォーラムで同様の質問が寄せられている可能性があります。いくつか試してみましたが、期待するフォルダにファイルがエクスポートされません。ご協力をお願いいたします。
作成したストアド プロシージャ
パラメーター
実行後、SQL 出力ウィンドウに次の出力が表示されます
69111E97-BEDE-4BDE-9EBE-C063DB690E9F.xls
以下のスクリーンショットに従って、フォルダーのアクセス許可を作成しました
oracle - Oracle のあるスキーマから別のスキーマに特定のオブジェクトをインポートする
私は自分のデータベースをエクスポートしてから、別のスキーマで同じものをインポートしました。しかし、何らかの理由で、ダンプ内のテーブルやプロシージャを含む約 1000 個のオブジェクトを見逃していたため、新しいスキーマではそれらの 1000 個のオブジェクトを使用できません。
エクスポートとインポートを再度行う代わりに、これらの 1000 オブジェクトを具体的にインポートする方法はありますか。
前提: エクスポート スキーマとインポート スキーマの両方が同じデータベースに存在します。
oracle - 外部テーブルのデータ ロード時間を確認するにはどうすればよいですか?
Oracle DB 12c Enterprise Edition を使用しています。
デスクトップに保存されたフラット ファイル (.csv) のファイル ディレクトリを設定しました。外部テーブルはすでに作成されており、データは Oracle で設定された外部テーブルに直接ロードされています。
.CSV --> 外部テーブルからのデータ インポートは透過的なプロセスのようです。.CSV フラット ファイル内のすべてのデータを外部テーブルにロードするのにかかった時間を正確に特定するにはどうすればよいですか?
私の .CSV フラット ファイルには 150,000 レコードがあります。BADFILE と LOGFILE が生成されますが、すべてのファイルをロードするのにかかった時間については特定されません。
助けてください..
私の目標は、外部テーブルを介したデータのロードが SQL*LDR または SQL Developer のデータ インポート ユーティリティよりも高速かどうかを判断することです。