問題タブ [decoder]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
qr-code - MATMSGとWIFI-QRが正しくエンコードまたはデコードされていません
私はそこに少しなじみのない問題に直面しています(グーグルで検索したところ、ヒントが見つかりませんでした)。TCPDFが提供するクラスを使用してQRコードを生成しようとしています。ほとんどすべてが正常に機能しています。あらゆる種類のウェブサイトリンクなどを生成することができます。
しかし、「SendingEmail」と「WiFiLogin forandroid」のQRを生成しようとしていますが、正しくエンコード(またはデコード?)されていません。
としてデコードされています
と
としてデコードされています
さらに、MATMSGのエンコードが主な問題であることに気づきました。このhttp://blog.qr4.nl/Online-QR-Code_Decoder.aspxを試してQRをデコードしました。MATMSGのQRをデコードできません
しかし興味深いことに、電子メールを送信するためにhttp://www.qrstuff.com/から生成されたQRは、そのデコーダーで完全に機能しています。さらに興味深いことに、このサイトのプレーンテキストオプションを使用してMATMSGをエンコードしただけでは、機能しません。
MATMSGをエンコードするのに注意が必要なことはありますか?またはそれをエンコードするために何か提案できますか?
さて、私は言及する必要があります
うまくエンコードおよびデコードされています。それらはそれに応じて電子メールとwifiログインを送信するために機能しますか?また
これらは機能しますか?
御時間ありがとうございます。乾杯!
android - BitmapRegionDecoder.decodeRegion(...) Android 2.2以下を実現する別の方法はありますか?
BitmapRegionDecoder.decodeRegion(...) を使用して画像をトリミングしています。ただし、android 2.3.1 (api level 10) 以下では機能しません。これを達成する別の方法があれば教えてください。android-support-v4.jar ライブラリにもこのクラスは含まれていません。
android - Android MediaCodec dequeOutputBuffer は常に -1 を返します
をデコードするために新しいMediaCodec API
onを使用しています。開発者ページのコード スニペットを使用して、(media_codec.xml から取得した) 名前でデコーダーをインスタンス化し、サーフェスを渡し、コーデックを構成しました。Jelly Bean
h264 stream
私が直面している問題は、dequeOutputBuffer が常に -1 を返すことです。
負のタイムアウトで無期限に待機しようとしましたが、うまくいきませんでした。
-1 を取得するたびに、getOutputBuffers を使用してバッファーを更新しました。
カスタム アプリを使用してメディア ソースからのデータを解析し、デコーダーに提供する場合にも、同じ問題が発生することに注意してください。
上記の入力は役に立ちます
c# - byte[]を次のような文字列に変換します"AAAAADT4RyQ="
バイト配列があります:{0、0、0、0、52、246、141、6}
それはどういうわけか文字列として表されます:AAAAADT4RyQ =
どうやってするの?エンコーダーとは何ですか?
cuda - CUDA H.264 デコーダーの初期化の問題
NVIDIA GPU Computing SDK 4.2 の cudaDecodeD3D9 の例に基づいて、マルチストリーミング H.264 ビデオ プレーヤーを開発しようとしています。
アプリケーションは少数のストリームで正しく動作しますが、解像度 800x600 の 12 ストリームまたは解像度 1920x1080 の 9 ストリームの cuvidCreateDecoder 関数でアサーション (CUDA_ERROR_OUT_OF_MEMORY) が発生します。cudaMemGetInfo は、387MB (1GB のビデオ カードの場合) および 1.3Gb (2GB のビデオ カードの場合) の使用可能なメモリを返します。メモリの断片化が原因ですか? 利用可能なメモリをどのように使用できますか?
cuvidCreateDecoder は 1920x1080 を超える解像度で動作しますか? 2560x1920 ストリームを試すと、cuvidCreateDecoder は CUDA_ERROR_INVALID_SOURCE をアサートします。
私の環境
- ハードウェア: NVidia GTX 550 Ti 1Gb、NVidia GT 610 2Gb、ドライバー バージョン 306.23
- ウィンドウズ 7 x64
- ビジュアル スタジオ 2010 SP1
- Windows SDK 7.1
- NVIDIA GPU コンピューティング ツールキット v.4.2、v.5.0
- NVIDIA GPU コンピューティング SDK 4.2。
sockets - netty を使用して、ソケット サービスで大きなバイト ストリーム (画像など) を送信する方法
私のサーバーは、クライアントにソケット サービスを提供します。私のサーバーDecoderHandler
はFrameDecoder
. クライアントが小さなデータ (約 1024 バイト未満) をサーバーに送信すると、サーバーはそれを正常にデコードしますが、クライアントが画像のコンテンツをサーバーに書き込もうとすると、index-out-bound-exception が発生します。 .
デコーダーによって選択されたバッファーには、サイズの制限が必要だと思います。そこで、パラメーター — バッファーのクラスを出力しました。
次のようになりました。
class org.jboss.netty.buffer.BigEndianHeapChannelBuffer
質問したいのですが、ソケットで画像を送信できるように、バッファのタイプを から に変更できますかBigEndianHeapChannelBuffer
。DynamicChannelBuffer
または、「netty を使用してソケットを介してビッグデータを送信する」問題を解決するのに役立つ他の有効な方法を提供できる人はいますか。
私は本当にあなたの意見が必要です.ありがとうございました!
サーバーからのスタックトレース:
クライアントからのスタックトレース:
android - Android デコーディング GIF の問題
スプラッシュ スクリーンに gif 画像をロードしたいと考えています。webview を使用しましたが、バグがあります。次に、 google code でクラスを見つけました。これにより、gif画像をデコードして表示できます。問題は、エミュレータでの動作です。エミュレーター上の画像は次のとおりです。
http://i47.tinypic.com/2ds0gvs.jpg
これが実際のデバイスで取得したものです。2.2.2 と 2.3.6 で実行しようとしましたが、同じ結果で、最初のループ パスは正しく、次のようになりました。
http://i45.tinypic.com/2u6d4df.jpg
これがスプラッシュ アクティビティです。
これはGifViewクラスです
public class GifView extends View {
これはgifデコーダークラスです
matlab - 信号のノイズを取り除く方法は?
私は一週間ずっとこの問題を理解しようとしてきました。私の主な問題は、信号のノイズから音を分離することです(プロットされた例を参照してください:
これらの小さなノイズの間には dtmf トーンがあります。トーンの開始点と終了点のインデックスを取得したら、それらを変換するのは簡単です。
ノイズの開始点または開始点をどのように正確に判断すればよいのでしょうか?各ノイズはさまざまな長さである可能性があり、実際の音には突然の低下がたくさんあります。小さな塊を取るという概念は理解できますが、音からノイズを判断する方法でそれらを比較するにはどうすればよいでしょうか。特定の数の下でインデックスが連続している時間を比較することで、沈黙を微調整できますか? この問題を開始する方法がわかりません。
exception - Netty 3.5.8-Final - FrameDecoder のヘルプ
私のフレームデコーダーには次のコードがあります。
int length = Integer.parseInt(hexToASCII(lengthBuilder.toString()));
ラインまでは順調です。その行の後、デコーダーは引き続き残りのバイトを読み取ることができますが、実際のメッセージを長さフィールドとして使用しているため、解析例外エラーが発生します。
たとえば、メッセージB0005EHELLO
があるとし[B is the header] [0005 - actual message length] [E - header 2] [HELLO - actual message]
ます..長さフィールドを整数値に解析した後、デコーダーは実際のメッセージの最初の 4 文字を使用しHELL
て長さフィールドを解析し、例外が生成されました。この問題で私を助けてください。
opencv - ffmpeg、OpenCV を使用したハードウェア アクセラレーションによる h264 デコード
私は、RTSP ストリームをデコードして IplImage フレームを提供し、それを分析パイプラインに供給する必要があるビデオ分析アプリケーションに取り組んでいます。現在、OpenCV VideoCapture 構造により、RTSP ストリームからフレームを抽出できます (これには ffmpeg を使用していると思います) が、パフォーマンスはそれほど高くありません。リアルタイムで動作する必要があります。
また、独自の ffmpeg デコーダーを作成しました。しかし、OpenCv と同様に、RTSP ストリームでのパフォーマンスは良くありません。多くのフレームがドロップされます。ただし、ローカル ファイルからのデコードは正常に機能します。ただし、コードの改良にはまだ取り組んでいます。
私が助けを必要としているのはこれです。まず、ここでハードウェア アクセラレーションによるデコードを使用してパフォーマンスを向上させることはできますか? 私のアプリはクロス プラットフォームであるはずなので、Directx VA (windows) と VAAPI (linux) を使用する必要があるかもしれません。そうであれば、特に ffmpeg デコード用にコードにハードウェア アクセラレーションを実装する方法を学べる場所はありますか? h264?