問題タブ [qtkit]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
interface-builder - QTMovieViewがパレットにありません
QTKitチュートリアルに従おうとしています。QTKitフレームワークと.hファイルを追加して含めます。QTMovieプロパティを作成します。次に、IBで、ライブラリからQTMovieViewをドラッグすることになっていますが、そこにはありません。[クラス]タブに移動すると、それを見つけることができます。しかし、ドラッグすると、映画のソースなどを設定するための属性がありません...
何か案は?
objective-c - QTkit を使用してオーディオを録音する
コア オーディオを使用してオーディオを録音するのは非常に複雑なようです。QTkitは基本的で現実的ですが。私が見たすべての例は、ビデオとオーディオを統合しています。QTkitを使用してオーディオを録音する例を知っている人はいますか?
objective-c - Record Sound in Cocoa Example Please!
I've been scouring both this site and the net in general for an example cocoa app that uses QTKit or Audio Queue and actually works.
Unfortunately, I can't find anything that fits the above description.
All I want to do is get a simple audio recording app so I can learn how it works!
Please, I have put alot of time into this already so don't point me to Apple Dev. It is just too dense for my simple brain.
And yes, there is a dupe or two here, but none of them actually produced a satisfactory outcome.
I am desperate! I feel like this should be WAY easier. I am starting to worry about getting deeply into Cocoa because the developer documentation is really not good.
Help!
objective-c - Combine and convert MP3 files using QTKit
I'm trying to combine two .mp3s into a single .wav file using QTKit. It seems to be working, but the last few seconds of the second file are getting truncated. Any ideas?
(Ignore the while loop waiting for QTMovieLoadStateComplete. I'll switch to using notifications in the future. But for now, it shouldn't matter...)
cocoa - QTMovie は URL リダイレクトを処理しますか?
私はQTMovieクラスがURLリダイレクトを処理するかどうか疑問に思っていました.QTMovieクラスでオーディオファイルをストリーミングしており、ストリームURLにはリダイレクトが含まれている可能性があるためです。ムービーの再生が開始されず、エラーがスローされないことがあります (私は常にメイン スレッドで動作します。このクラスはスレッド セーフではないことを知っています)。
QTMovie の再生が開始されない理由はありますか?
よろしく、 エリック
アップデート:
QTMovie は-userInfo
、エラー時に次の dict を返します。403 は HTTP 403 を指していますか?
objective-c - QTKit でムービーを変換する進行状況を表示するにはどうすればよいですか?
次の QTKit コードを使用してムービーの変換の進行状況を表示するにはどうすればよいですか?
つまり、プログレス バーに表示できるように、ムービー変換の進行状況を表示したいと考えています。
macos - Mac OS X で QTKit を使用してビデオ データのストリームを再生する
私はQTKitで数日間遊んでいて、QTCaptureSession
などQTCaptureDeviceInput
を使用してカメラからファイルにビデオデータを正常に記録できました.
ただし、ネットワーク経由または同じアプリ内の別のオブジェクト (問題ではありません) のいずれかの別の場所にデータを送信し、ビデオ データをストリームのように再生します。
私は を持っており、実際にファイルにデータを記録しないようにファイル URL としてQTCaptureMovieFileOutput
渡しています (デリゲート コールバックを介して利用できる に含まれるデータにのみ関心があります)。nil
QTSampleBuffer
QTCompressionOptions
H264 ビデオおよび高品質 AAC オーディオ圧縮を指定する出力にオブジェクトを設定しました。
コールバックを受け取るたびに、サンプル バッファーのデータをNSMutableData
、インスタンス変数として保持しているオブジェクトに追加します。
私が抱えている問題は、QTKit フレームワークの「プレーヤー」オブジェクトが、ビデオ データの「ストリーム」を再生できるように見えないことです。私はこの仮定で正しいですか?
QTMovie
データ インスタンス変数を使用して (で再生する) オブジェクトを作成しようとしましたQTMovieView
が、データがムービーではないというエラーが表示されます。
この問題に間違った角度からアプローチしていますか?
以前は、ビデオ フレームごとに sQTCapturePreviewOutput
を渡すa を使用していました。これらのフレームをビューに表示CVImageBufferRef
するように変換していました。
これはストリーミングの印象を与えましたが、速度が遅く、プロセッサを大量に消費していました。NSImages
他の人は、ストリーミング ビデオの問題をどのように解決しましたか?
cocoa - H.264 サンプル データからの画像の抽出 (Objective-C / Mac OS X)
H.264 のサンプル バッファが与えられた場合、それが表すフレームを画像として抽出する方法はありますか?
QTKit を使用してカメラからビデオをキャプチャしQTCaptureMovieFileOutput
、を出力オブジェクトとして使用しています。
デリゲート メソッドCVImageBufferRef
にパラメーターとして渡されるものに似たものが必要です。QTCaptureVideoPreviewOutput
何らかの理由で、ファイル出力にCVImageBufferRef
.
私が取得するのは QTSampleBuffer です。圧縮オプションで設定したため、H.264 サンプルが含まれています。
iPhone では、CoreMedia と AVFoundation を使用してCVImageBufferRef
、与えられた からを作成できることを確認しました (これは、取得できる限り にCMSampleBufferRef
近いと思います) - しかし、これは iPhone ではなく Mac です。QTSampleBuffer
Mac には CoreMedia も AVFoundation もありません。同じタスクを実行する方法が見当たりません。
私が必要としているのは、Output オブジェクトのコールバックによって与えられた H.264 サンプルの現在のフレームからの画像 (CVImageBufferRef、CIImage、または NSImage であるかどうかは関係ありません) です。
拡張情報 (以下のコメントから)
元の問題に焦点を当てた関連する質問を投稿しました - QTKit を使用してビデオ サンプルのストリームを単純に再生しようとしています: Mac OS X で QTKit を使用してビデオ データのストリームを再生する
CVImageBufferRef
可能ではないように思われるため、画像データをスケーリング、圧縮、変換NSImage
し、ネットワーク経由でピアに送信することにより、フレームを画像として取得し、ビデオの外観を作成しようとしました。
QTCapturePreviewVideoOutput
(または解凍) を使用して、圧縮されていないフレーム画像を の形式で取得できますCVImageBufferRef
。
ただし、これらの画像参照は、使用する前に圧縮、スケーリング、および への変換を行う必要があるNSImage
ため、 を使用してフレームワークから既にスケーリングおよび圧縮されたフレームを取得しようとしますQTCaptureMovieFileOutput
(これにより、前に圧縮と画像サイズを設定できます)。キャプチャを開始する)、CPU を殺す高価な圧縮、スケーリング、および変換操作を実行する必要がなくなります。
cocoa - CVImageBufferRef を PNG に変換する
カメラ入力に QTKit.framework を使用して、すべてのフレームをディスクに書き込みたいと考えています。しかし、私が得るすべての画像は半分透明で、いくつかの色がありません。色空間の問題でしょうか? ;(プレビュービューでは良さそうに見えますが、書いていると「何か」が起こります。それは何だろうと思います。
Capturer の属性は、次のようなフレーム サイズとピクセル形式です。
[NSNumber numberWithUnsignedInt:kCVPixelFormatType_32ARGB], (id)kCVPixelBufferPixelFormatTypeKey
アップデート:
JPEG も試してみましたが、同じ種類の画像が得られます。たとえば、画像に欠けているチャネルがいくつかあり、書き込まれたすべてのフレームの背景が白いなどです。(JPEGは透過を許可しないため??)
オリジナルと書かれた(JPEG)もの:
(PNGは透明でブラウザでは見にくいので表示しません)
前もって感謝します。
objective-c - QTCaptureSessionのQTCaptureOutputsとしてソケットを追加する方法
QTKitを使用して入力ソースからストリーミングオーディオとビデオをキャプチャすることに関するAppleのドキュメントを読んでいます。中央クラスQTCaptureSession
が入力を処理し、可能なすべての出力に送信することを読みました(QTCaptureOutput
)。QTCaptureOutput
ドキュメントには、 (などの)の6つのサブクラスがリストされていますQTCaptureMovieFileOutput
。
ビデオストリームを別のマシンに送信できるようにQTCaptureOutput
、に書き込むサブクラスを作成したいと思います。NSSocket
任意のアイデアをいただければ幸いです。