問題タブ [large-file-upload]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
asp.net-mvc-4 - ASP.Net MVC 4 で大きなファイルをアップロードする方法
ASP.Net MVC 4 で大きなファイルをアップロードする方法
コントローラーに次のようなコードがあります。
Request.Files.Get("img").SaveAs(Server.MapPath("~/Images/ImgSong/" + +Out.Id + ".jpg"));
アップロードしたいファイルは10Mbから100Mbの範囲ですが、小さなファイルのアップロードのみが可能です。
私を助けてください。
php - PHP を介した大きなファイルのアップロード (0 ~ 5GB) の効率的な方法
私は良い方法を探していて、頭を壁にぶつけていました。
ファイル共有サービス プロジェクトで、大きなファイルをアップロードするための最適な方法を決定する任務を負っています。
ここでスタックオーバーフローや他のフォーラムで多くの質問を検索した後、ここに私が得たものがあります:
許可される最大ファイル サイズとともに、スクリプトの最大実行時間を増やします
このケースは本当に似合いません。ファイルが通常のブロードバンド接続 (1mbps-2mbps) を介してアップロードされているときは、ほぼ毎回タイムアウトします。アップロード後に PHP スクリプトを実行しても、アップロードがタイムアウトしないという保証はありません。
チャンクアップロード。
ここで何をすべきかはある程度理解できますが、混乱しているのは、1 GB のファイルがアップロードされていて、それを 2 MB のチャンクで読んでいるとします。 PHP スクリプトの実行がタイムアウトし、エラーが発生します。
Java や Perl などの他の言語を使用しますか?
ファイルのアップロードを処理するために Java や Perl を使用するのは本当に効率的ですか?
ここではクライアントが使用するメソッドは問題ではありません。クライアント SDK を発行し、その中で選択したメソッドを実装できるからです。クライアント側とサーバー側の両方の実装は、私たちが決定します。
メモリ使用量が効率的であるべきであり、多くの同時アップロードが行われている可能性があることを考えると、どの方法が最適であると思いますか?
Dropbox や同様のクラウド ストレージ サービスは、どのようにして大きなファイルのアップロードを処理し、高速に維持しているのでしょうか?
rest - 大きなファイルをワイルドフライにアップロードする際のエラー
大きなファイル (400 MB 以上) を wildfly 8.1 にアップロードしようとすると、IOException が発生しますが、jboss 7 サーバーを使用しているときに同じ条件で例外が発生することはありません。
例外:
max-post-size を増やしましたが、うまくいきませんでした。
スタンドアロン.xml:
php - データPHPのすべてのチャンクを保存する
こんにちは、サーバーにデータをアップロードしようとしていますが、アップロードされたコンテンツが大きなファイルであり、接続が切断された場合は、停止した場所から同じファイルをアップロードし、再度開始しないようにする必要があります。ファイルをサーバーに正常にアップロードできますが、アップロードを再開できません.これを行う他の方法はありますか?? 以下は私のコードです。
RESUME.PHP
コードを localhost で動作させることはできますが、データがチャンク化されておらず、サーバーに保存されていないため、サーバーで使用する際に問題があります。
python - フラスコ-sqlalchemy 巨大なファイルをデータベースに書き込む
5900 行の SQL のような巨大なファイルを、flask-SQLalchemy を使用して mysql データベースに作成、挿入、および変更しようとしています。
ファイルを解析し、各コマンドを ; に分割して分離しています。
これは期待どおりに機能します。
これが私がこれまでに持っているものです。
SQL クエリの実行には、SQLAlchemy の Engine API を使用しています。
クエリを実行すると、ファイルの 5400 行ほどでデータベースがジョブを終了したように見えますが、アプリケーションは 5900 行までの完全な実行をエラーなしでログに記録します。
作成と挿入を別々に行うと、それも機能するので、バッチ実行を分割したり、プーリングなどを使用したりする方法があります。これにより、データベースが動かなくなります。
ありがとうございました!
python - 大きなファイルをpythonスクリプトに繰り返しロードするのを避けるには?
大きなファイル (行列 ~50k 行 X ~500 列) を取得し、それをデータセットとして使用してランダム フォレスト モデルをトレーニングするための Python スクリプトを作成しました。
私のスクリプトには 2 つの機能があります。1 つはデータセットをロードする機能、もう 1 つはそのデータを使用してランダム フォレスト モデルをトレーニングする機能です。これらはどちらも問題なく動作しますが、ファイルのアップロードには約 45 秒かかり、微妙に異なるモデルをトレーニングする (同じデータセットで多くのモデルをテストする) たびにこれを行うのは面倒です。ファイルアップロードコードは次のとおりです。
これは、col を含む numpy 配列を返します。ラベルと列として9。12-end をメタデータとしてランダム フォレストをトレーニングします。
同じデータを使用してさまざまな形式のモデルをトレーニングするので、ファイルを 1 回アップロードして、ランダム フォレスト関数にフィードできるようにします。ファイルを私が思うオブジェクトにしたいです(私はpythonにかなり慣れていません)。
erlang - Yaws ウェブサーバーに進行中のアップロード
Yaws 2.0 でスクリプトupload2.yawsをテストしていますが、動作しません。このスクリプトは、Yaws 1.57 用に開発されました。
Yaws のログは次のとおりです。
フォーム アクションを netcat でリッスン ポートに変更すると、ファイル名を含む完全なヘッダーが受信されます。
コード:
NCはじめました
次に、次のヘッダーが表示されます。
エラーはマルチパート関数にあると思われますが、私はErlangの初心者です:/
誰かがアイデアを持っていますか?