問題タブ [database-optimization]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
php - インデックス作成を使用した MYSQL データベースの最適化
私は、マネージメント教育の領域でシミュレーションを行う自己資金によるスタートアップであるLearnBiz Simulationsに取り組んでいます。
(a) 当社のウェブサイトは現在、約 16,000 人に対応しています。現在、データベースのサイズは 30 mb で、合計で約 90 のテーブルがあり、各テーブルには 5 ~ 50 の列がある場合があります。データベース内のすべてのテーブルには、挿入、削除、または更新の新しい行が繰り返し含まれています。ただし、列は追加されません。インデックス作成手法の採用に問題はありますか? 行を挿入したり削除したりするだけでもインデックス作成が役に立たなくなることを示唆するフォーラムやビデオが他にもいくつかありました。
(b) 当社の Web サイトでの最大の作業は、200 ~ 800 行のコード行を処理する mysql クエリです。私たちのクエリのほぼ 95%+ には、必要な行を特定するために、複数の等式 where 句があります。私の理解が正しければ、インデックス作成を使用すると、プロセスを数倍高速化できますか?
(c) 毎分多数の参加者のデータを処理するシミュレーションがいくつかあります。このようなシミュレーションでは、現在、一度に 50 人の参加者に対応することさえできません。インデックス作成を採用することで、そのようなシミュレーションでより多くのユーザーを獲得できるでしょうか?
(d) 現在使用しているサーバーは、GoDaddy を使用した VDS です (年間約 400 ドルの費用がかかります)。ウェブサイトを高速化するために、DDS (年間約 3000 ドルの費用) に移行するか、TokuDB のようなものを入手することは理にかなっていますか? 現在のシステム、つまりサーバー + データベース + コーディングのユーザー容量を判断する方法はありますか?
mysql - データベース設計-構造化の方法
現在、私は1つのテーブルを持っており、それは非常に速く移入されています。私は50台のデバイスを持っています。30秒ごとに各デバイスからデータを収集します。したがって、10,000台のデバイスを追加すると、1か月あたり8億7600万件のレコードが生成されます。これは膨大な量です。
これが私の関係です
非常に複雑なクエリとレポートに直面していますが、それらを実行すると、システムが応答せず、実行タイムアウトになります。(これは2mil以上のレコードです)
データベース構造を再考して再実装する必要があります。そして現在、私はどちらかについて考えています
- ユニットごとに新しいテーブルを作成します
- Create new table for each unit for each month
What would you suggest?
mysql - magento のスロークエリログで long_query_time に設定する理想的な値は何ですか?
Magento を最適化するために、mysql でスロー クエリ ログを有効にします。
特にmagentoの場合、query_long_timeの理想的な値は何ですか?
asp.net - エンティティフレームワークで単一のdb呼び出しで複数のテーブルを取得する
ASP.NET MVC および Entity フレームワークは初めてです。以前は、ADO.NET の Datatable と DataSet を使用していました。そのため、1 回の呼び出しでデータベースから複数のテーブルを取得するようなシナリオでは、DataSet を使用していました。例えば
C# では、以前は
単一の Db 呼び出しで Entity Framework を使用して複数のテーブルが必要な場合は、どうすればよいですか?
mongodb - MongoDB - 地理空間交差点のパフォーマンス
私たちは、Google マップ上に多角形を描画できる小さなツールを開発しています。このツールは、描画されたオーバーレイと重なる郵便番号を返します。大規模なデータ セットを処理する際のパフォーマンスが優れていると聞いていたので、今こそ NoSQL データベースに飛び込む絶好の機会だと思いました。
そこで、2010 年の米国国勢調査のデータ セットから ZCTA (Zip Code Tabulation Area) 形状データをすべて取得し、次のように MongoDB にロードしました。サンプル文書:
また、次のように Polygon 列にインデックスを設定しています。
最後に、Google ポリゴンのポイントを別の GeoJSON ポリゴンに変換し、次のように $geoIntersects を使用してデータをクエリします。
これは、オーバーレイ ポリゴンが小さい場合はうまく機能しますが、ポリゴンが複数の州 (米国) にまたがる場合、クエリに時間がかかります (> 20 分!)。これをより合理的な応答時間にするにはどうすればよいですか? 郵便番号のポリゴンにインデックスを付けました。クエリを実行しているのはこれだけなので、可能な限り最適化されると思います。索引付けが間違っていますか?
前もって感謝します!
postgresql - テーブルのスキーマ名を指定するとパフォーマンスに影響しますか?
免責事項: これは最適化のためではなく、好奇心からです。
私はこれかどうか疑問に思っています:
よりもどういうわけか速い/遅い
または、すべてのクエリでスキーマを指定する (または指定しない) ことを示唆する可能性のある他の意味がある場合。
私はいくつかの (本当に少数の) テストを行いましたが、速度に関して違いは見られません。