問題タブ [chunking]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
apache - Redhat システムの Apache 2.2.3 でチャンクを有効にする方法
私の Apache (redhat のバージョン 2.2.3) サーバーはチャンク エンコーディングを受け入れず、次のエラーをスローします。
chunked Transfer-Encoding forbidden: /services/soap
.
何人かの人々が同じ問題を抱えているのを見ました。彼らは mod_deflate.so を無効にすることを提案しました。その行にコメントしました:
#LoadModule deflate_module modules/mod_deflate.so
Apacheを再起動しましたが、それでも同じ問題があります。
何が恋しい?!
c# - メモリーリークが見つかりません
多分これは投稿するのに良い質問ではないかもしれませんが、私はちょっと必死です. 小さなコードがあり、メモリ リークがありますが、それを克服する方法がわかりません。助けてください。
大きなストリームを小さなチャンクに分割し、SsClient.SendChunk() メソッドを介して WCF サービスに送信します。700 MB のファイルがあるとします。それを 100 MB のチャンクの 7 つの部分に分割し、1 つずつ送信します。しかし、この方法が完了した後、メモリリークとして見られるメモリに約400 mbがあります。デバッグすると、Web サービスの SendChunk メソッドの直後にメモリがチャンクでいっぱいになることがわかります。ここでメソッドが終了すると、メモリリークが残ります。GC.collect() も機能していないようです。なぜ 700 MB のファイルの 400 MB が残っているのかさえ理解できませんでしたか? 多分それは私が知らないいくつかの手がかりを与えるかもしれません。
何か案は?
python - アラビア語テキストのチャンク化に nltk を使用する
NLTK を使用してアラビア語テキストのチャンク NP、VP、PP を抽出できるかどうか、およびアラビア語コーパスをどのように使用できるかを知りたいアラビア語テキストのチャンクに関するプロジェクトがあります。誰か助けてください!
ios - http ポスト経由でチャンクを使用して大きなビデオをアップロードする
サイズの大きな動画を iPhone から Web サーバーにアップロードしたいと考えています。以下のコードで試しました。小さなファイルでは機能しますが、大きなファイルをアップロードしようとするとクラッシュします。
コード:
調査の結果、大きなファイルをデータのチャンクで送信すると、これが可能になるというアイデアが得られました。ソリューション 1、ソリューション 2。
Stream Programming apple docも調べました。 しかし、サーバーの NSURL を定義する場所がわかりません。データを出力ストリームに書き込んだ後、サーバーに送信する方法。
誰かが私に動作中のコードを教えてくれれば、それをよりよく理解できるでしょう。
どうやってするか?アイデアはありますか?
java - nlp Chunking パーサーを開いた結果から名詞句を抽出できません
こんにちは、私は openNLP チャンキング パーサーを使用していくつかのテキストを解析しました。以下のスタック オーバーフローの質問の助けを借りて、名詞句のみを抽出しようとしました
Open nlp のチャンキング パーサーを使用して名詞句を抽出する方法
しかし、名詞句を抽出できませんでした。以下は私のコードです
解析されたコンテンツからNPを抽出することを提案してください
ありがとう
ruby - S3 でホストされているファイルの行数を取得する
ユーザーがファイルを S3 にアップロードできるようにすると、そのファイルの行数が表示されます。これを行うには、S3 からファイルをフェッチし、ドキュメント内の改行数をカウントするバックグラウンド プロセス (DelayedJob) を実行します。一般に、これはかなりうまく機能します。
作業を行うコードは次のとおりです。
何らかの理由で、いくつかのファイルの行数が完全に間違っています。たとえば、10,000 行のファイルが 40,000 の行数で表示されます。これは一貫していません。ほとんどのファイルは問題なく動作します。
これが S3 のチャンク リーダーの動作方法に起因するのか、それとも他の何かが問題を引き起こしているのかを突き止めようとしています。レコード数が間違っている理由は何ですか? 私が気付いていないこれを行うためのより良い方法はありますか?