問題タブ [low-bandwidth]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - サービスによって割り当てられるリソースを制限する方法はありますか?
人々が撮っている写真をサーバーにオフロードするサービスを備えたアプリがあります。
具体的には、ユーザーは写真を撮るためにデバイスのネイティブ カメラに送信され、その後、インテントを介して写真がアプリに返され、そこから「承認」されます。
この承認行為によりファイル システムに保存され、サービスは x 秒ごとに到着し、オフロード待ちのファイルを通知してオフロードします。
これはすべてうまくいきます。
ただし...接続が悪いがHTTPハンドシェイクには十分な状況では、アプリはサービスでオフロードが発生しているにもかかわらず、ユーザーが*アプリに戻ってきた時点で自分自身を見つけます写真の撮影 (そして Android が 4 ~ 8 MB の写真を私の承認アクティビティに送り返していると、アプリがハングします。「殺すか待つか」というプロンプトを表示するのに十分な時間がかかることがあります。最終的には (待っていれば) 成功します)アプリに戻ります。
接続が強い場合 (またはアプリが機内モードの場合 - アップロードがすぐに失敗する場合)、すべてが完全にスムーズに機能するため、これがネットワークに関連していることを確認しました。*これが発生するのは、サービスのオフローダーがヒンキー接続によって妨げられている場合のみです。
それで、私の質問は - これについて何ができるでしょうか? アプリに大きな影響を与えないようにサービスを分離する方法はありますか? デバイス上にあり、ファイルをオフロードするだけのパートナー アプリを作成するという私の解決策はありますか (それで問題は解決しますか?)。
これは、ユーザーにWAIT /KILL プロンプトが提供されたときに得られるレポートです。どうすればいいのかわからない。
matlab - Matlab - 画像内の領域の 2D 低帯域電力計算
イメージ内の領域 (必ずしも長方形ではない) の「低帯域電力」を計算する必要があります。これを行う必要があるのは、Matlab を使用して、この論文で説明されているアルゴリズム(「火災検出アルゴリズム」の段落の 2 ページを参照) を実装する必要があるためです。だから私の質問は:
ローバンドパワーはどのように計算できますか?
アイデアは、次の 3 つの手順に従うことです。
- FI = fft2 による 2D フーリエ変換の計算
- LBFI = 円の外側のすべての値を 0 にする (ローバンドパス)
- PSD = 電力の計算
コード内
このアルゴリズムを長方形ではない領域に適応させる方法はありますか?
似たようなものを作る方法はないと思いますが、間違っていることを願っています
c# - 私の C# アプリケーションでの帯域幅シェーピング
UDP を使用してインターネット経由でビデオを他の IP に送信するネイティブ ライブラリを使用する C# アプリケーションがあります。そのライブラリのトラフィックを制御できません。
私のアプリケーションは、私がそれらを制御できることを使用して、別のサーバーの Web サービスも呼び出しますWebRequest
。
問題は:
インターネット帯域幅が狭い場合、ビデオ ストリームがすべての帯域幅を使用します。そのため、その間、Web サービス メソッドからの応答を取得できません。
WebRequest
応答を安全に取得できるように、優先順位を付けたり、帯域幅を節約したりする方法はありますか?
c - C での TCP ベンチマークでの予期しない帯域幅
そのため、接続ごとに転送されるデータ量が帯域幅に与える影響を調べるために、TCP のベンチマークを行っています。そこで、必要なものを測定するために C でサーバーとクライアントを作成しました。次に、Python スクリプトを使用して実験を何度も実行しました (精度を +/- 1% にするために、100 秒間テストを実行しました。データの各ポイントについて、適切な平均を得るために実験を 33 回実行しました)。さまざまな入力を行い、結果を収集します。
私が得た結果は、帯域幅が本来あるべきものの 10% にすぎないことを除いて、ほぼ正しいように思えます (接続ごとに転送されるデータ量が多い場合に予想されるプラトーを観察することさえできます)。
このベンチマークを実行するために 1 台のコンピューターにしかアクセスできないため、localhost でテストを行っていますが、問題にはなりません。
ここに私の結果があります:
ご覧のとおり、取得できる最高の帯域幅は 300 MB/秒を少し超えているようです...しかし、iperf で帯域幅テストを実行すると (同じ TCP ウィンドウ サイズを使用するようにしました)、localhost で約 3 GB/秒の帯域幅を取得します。
これが私のクライアントのコードです:
そして、ここに私のサーバーのコードがあります:
基本的に私のコードが行っていることは次のとおりです。
- サーバーの場合: クライアントが接続するのを待ち、必要なサイズのダミー ペイロードを送信し、そのクライアントへの接続を閉じます。これを繰り返します。
- クライアントの場合:サーバーへの接続を開き、サーバーが接続を閉じるまでサーバーが送信しているものを読み取り、決定されたタイムアウトに達するまで繰り返します。
帯域幅を計算するには、 を実行するだけです(number_of_connections_completed * size_transferred_by_connection) / duration_of_all_transfers
。Cでオーバーフローが発生しないように、Pythonを使用して帯域幅を計算します。
TLDR:私の C プログラムで得られる帯域幅は、localhost の帯域幅の 10 分の 1 です。その問題の原因は何ですか?