問題タブ [high-traffic]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
.net - DNN サイト トラフィック
最近、DNN で開発された Web サイトを立ち上げました。
ログ ファイルを分析すると、拡張子が .axd のファイルが、ページと共にアクセスされるリソースとして表示されます。問題は、これらの .axd ファイルで大量のトラフィックが発生していることです。
大量のトラフィックとは、ヒット、訪問、データ転送を意味します。
私の質問は次のとおりです。 1- 通常の .net で作成された古いサイトでは見たことがないのに、アクセスしたページ内にこれらの .axd ファイルが表示されるのはなぜですか? これらのファイル名のサンプル: WebResource.axd、DXR.axd、ScriptResource.axd
2- これらの .axd ファイルで見られるヒット数、訪問数、転送されたデータはカウントされますか? つまり、「abc.aspx」という名前のページが WebResource.axd を使用してロードしている場合、abc.aspx の合計訪問者数を取得するには、両方の訪問者 (.aspx の訪問者と .axd? の訪問者) を合計します。
3- これらの .axd ファイルに表示されるヒット数、訪問数、および転送されたデータから、誤った合計トラフィック値が得られますか? 実際、トラフィックは突然 40% 増加しましたが、訪問者とヒット数は大幅に減少しました。
ありがとうございました。
node.js - 同時実行性の高いチャットアプリケーション
私は現在、非常にうまくいっているWebベースのプライベートチャットアプリケーションを持っています。
問題は、mysqlを使用してメッセージを保存してから受信することです。これは非常に非効率的であり、送信されたプライベートメッセージを処理するためにnode.jsまたはsocket.ioに移行することを考えていました。私が受け取っているトラフィックは毎日増加しているので、私はすぐに数万、そして数十万の接続を処理しなければならなくなるでしょう。
どうすればそれを達成できますか?複数のサーバーが必要ですか?または、単一の強力なサーバーでこのような膨大な接続数を処理できますか?
前もって感謝します。
database - アクティブなメンバー登録でサイトを更新する
プロジェクトを引き受けたいのですが、更新プロセスの処理方法がわかりません。
通常、サイトの更新を求められた場合は、データベースとサイト ファイルをバックアップしてから、ローカルまたは開発サーバーで更新を行います。その後、更新が完了したら、それらをライブにプッシュします。
私の問題は、私が取り組んでいるサイトが、毎日新しいメンバーを登録し、毎日ブログを投稿し、それらの投稿に毎日新しいコメントを受け取ることです。月曜日にサイトをプルし、テスト環境で更新し、金曜日にそれらの変更をプッシュすると、その週にサインアップしたすべてのメンバーとブログ エントリが上書きされます。
では、これを行うための最良の方法は何ですか? 開発中にライブ サイトで取得したデータを失うことなく、サイトに機能を更新/追加するにはどうすればよいですか? TechCrunch や Gizmodo のようなトラフィックの多いサイトは、データを失うことなく常にサイト全体の膨大な更新を行っているため、それは可能であるに違いありません。
database - 大規模なウェブサイトの提案が必要です
大学生向けのソーシャルネットワーキングと雑誌のウェブサイトを計画しています。年間20万人の会員が見込まれ、交通量も多い。私はJoomlaを使用することを計画しており、それは拡張機能です。Jomsocial、EasyBlog、EasyDiscuss、JoomlaおよびZooのレビューは、インストールする拡張機能です。これが私の質問です。
どのDBを使用する必要がありますか?> Monge> PostgreSQL、MySQLなど。大量のデータの読み取り/書き込みを処理するにはどうすればよいですか?PHPとSERVERにはどのような拡張機能が必要ですか?
よろしく
ruby-on-rails-3 - ユニコーンではなくnginxからキャッシュされたRubyアプリを提供するには?
私は Rails 3.0 アプリを持っています。これにはかなりの量のトラフィックがあり、Nginx と Unicorn を組み合わせて実行しているアプリです。問題は、ユニコーンとそのワーカーが多くのリソースを消費することです。私のアプリの性質上、多くのレコードがデータベースから取得され、それらのデータベース レコードで生成されたほぼ静的なファイルを提供するようなものです。
この種の静的ファイルを生成してキャッシュし、ユニコーンを介してアプリの代わりにnginxを介してそれらを提供し、使用するリソースを減らし、1000リクエスト後にキャッシュをリロードすることができるかどうか疑問に思っていました
私はそれについての私の研究を始めています.私は多くのサーバー構成を知らないので、何かアドバイスをいただければ幸いです.
ありがとう!
php - トラフィックの多いアプリケーションで mysqli_insert_id が間違った ID を返す可能性はありますか?
トラフィックの多いアプリケーションで、間違った ID を返したり、ほぼ同時に実行された 2 つのクエリmysqli_insert_id()間で ID を混同したりする可能性はありますか?INSERT
jakarta-ee - トラフィックの多い Java Web アプリケーションで負荷を処理するにはどうすればよいですか?
トラフィックの多い Java Web アプリケーションを開発しています。現在、私はそのアーキテクチャを定義しています。いくつか質問があります:
- 負荷を処理するアーキテクチャを設計する際に考慮すべき重要な要素は何ですか?
- Web アプリケーションのダウンを防ぐ方法、または高可用性を確保する方法は?
一度に何百人ものユーザーがログインすることを期待しています。データベースでのルックアップを避けるために、データをアプリケーション スコープ (静的変数) に保持することを計画しています。セッションでは、5kB のデータを保存する予定です。
web-traffic - 渋滞の設計ガイドライン
私は映画レビューのためのウェブサイトに取り組んでいます。現在の設計では、フロントエンド(jQuery、HTML、CSS)は、基本的なストレージと取得のためにモデル(MYSQLデータベースを処理する個々のphpスクリプト)に接続します。このささいなデザインは、トラフィックが少ない場合に機能します。
私の懸念は、同時に多くのリクエストが入ってくる大量のトラフィックに関連する問題にどのように対処するかです。大量のトラフィックを処理し、システムをスケーラブルにするため に、モデルパーツに対してどのような設計変更を行う必要がありますか?
PS:さらに情報が必要な場合はお知らせください。
ありがとうございました
architecture - トラフィックの多いWebサイトでのSolrの安全なデータインポートとコアスワップ
技術者の皆さん、こんにちは。
月に数百万の訪問者がいる(PHP)Webサイトがあり、400万のドキュメントがホストされているWebサイトでSolRインデックスを実行していると仮定します。Solrは4つの別々のサーバーで実行されており、1つのサーバーがマスターで、他の3つのサーバーが複製されます。
5分ごとに何千ものドキュメントをSolrに挿入できます。さらに、ユーザーは自分のアカウントを更新できます。これにより、solrの更新もトリガーされます。
ドキュメントを見逃すことなく、インデックスをすばやく安全に再構築するための安全な戦略を探しています。そして、安全なデルタ/更新戦略を立てること。私は戦略について考えました。ここで専門家と共有して、このアプローチを採用すべきかどうか、または彼らが(まったく)異なるアドバイスをする可能性があるかどうかについての意見を聞きたいと思います。
Solr DataImport
すべての操作で、1つのデータインポートハンドラーを使用します。データとデルタインポートをDataImportHandlerDeltaQueryViaFullImportのような1つの構成ファイルに混合したいと思います。MySQLデータベースをデータソースとして使用しています。
インデックスの再構築
インデックスを再構築するために、私は次のことを念頭に置いています。「ライブ」コアの近くに「reindex」という新しいコアを作成します。dataimporthandlerを使用して、ドキュメントセット全体(400万ドキュメント)を完全に再構築します。これには、合計で約1〜2時間かかります。ライブインデックスには、1分ごとに更新、挿入、削除があります。
約1〜2時間かかった再構築後、新しいインデックスはまだ実際には最新ではありません。遅延を小さくするために、新しいコアに対して1つの「デルタ」インポートを実行して、過去1〜2時間のすべての変更をコミットします。これが行われると、コアスワップを実行します。毎分実行される通常の「デルタ」インポートハンドラーは、この新しいコアを取得します。
ライブコアへの更新のコミット
ライブコアを追跡するために、デルタインポートを毎分実行します。コアスワップにより、インデックスの再作成コア(現在はライブコア)が追跡され、最新の状態に保たれます。dataimport.propertiesもスワップされるので、このインデックスが数分間遅れても、実際には問題にならないはずだと思いますか?デルタインポートはこれらの数分間の遅延を追い越しましたが、可能であるはずです。
あなたが私の状況と私の戦略を理解し、私があなたの目に正しい方法でそれをしているのかどうかアドバイスしてくれることを願っています。また、思いもよらなかったボトルネックがないか知りたいのですが。Solrバージョン1.4を実行しています。
私が持っているいくつかの質問は、レプリケーションについてはどうですか?マスターサーバーがコアを交換する場合、軟膏はこれをどのように処理しますか?
また、スワッピングなどで書類を紛失するリスクはありますか?
前もって感謝します!
javascript - 画像のプリロード...最速の方法
私はトラフィックの多いウェブページ(本当に高い!)を扱うプロジェクトに取り組んでいます。ランディングページには、ページが読み込まれた直後に大量の画像が表示されます(〜40)。フェードインして表示するには、ライブラリを使用しません。準備が整う前に読み込む必要があるため、このためのライブラリは使用しません。使用します。4つのイメージサーバーがあります。画像を読み込むのに最適な経験はありますか?私は次のことを試しました:
ページヘッダーの直後に<head>、スクリプトタグを挿入しました。
そうすることで、画像はDOMReadyおよびLoadイベントの前にロードを開始および終了します。ただし、同じURLのページ上の画像は、以前に読み込まれた場合でも、再度読み込まれるようです。URLは同じで、キャッシュはオンで、Mozillaが使用されました。
たぶん、ブラウザがそれらの画像を使用するのを妨げるいくつかのメカニズムがありますか?または何?別の質問:DOMと画像が並行して読み込まれる場合、速度が低下しますか?