問題タブ [cmtime]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
objective-c - AVAssetWriterInputPixelBufferAdaptor と CMTime
を使用してビデオにいくつかのフレームを書き込んでいAVAssetWriterInputPixelBufferAdaptor
ますが、時間の動作が期待したものではありません。
1フレームだけ書くと:
これにより、長さゼロのビデオが得られます。これは私が期待するものです。
しかし、2 番目のフレームを追加すると、次のようになります。
10 秒のビデオを取得しますが、5 秒を期待しています。
何が起きてる?どういうわけかwithPresentationTime
フレームの開始と期間の両方を設定しますか?
私は を呼んendSessionAtSourceTime
でいないことに注意してくださいfinishWriting
。
image - 1.8 秒のビデオから静止画像を生成するための正確な CMTime を取得できません
ビデオ アセットから静止フレームを生成しようとするたびに、0.000.. 秒の時点で生成されます。これは、ログ メッセージから確認できます。良いことは、時間 0.000 の画像を取得して、"myImageView" という UIImageView に表示できることです。問題は AVURLAssetPreferPreciseDurationAndTimingKey が設定されていないことだと思いましたが、その方法を理解した後でもまだ機能しません..
これが私が持っているものです..
time、actualTime、および generate はヘッダーで宣言されています
そして私のコンソールは..
2011-04-28 18:49:59.062 videoTest[26553:207] 合計ビデオ期間は 1.880000 です
2011-04-28 18:49:59.064 videoTest[26553:207] 画像が必要な時間は 1.000000 です
2011-04-28 18:49:59.064 videoTest[26553:207] 私の画像が撮影された実際の時間は 0.000000 でした
...................................
どうもありがとうございました.. :)
iphone - ObjectiveC/CMTime-AVPlayer.durationをミリ秒に変換します
着信音を再生するためのアプリを作成していますが、毎回再生された着信音の現在の時刻をミリ秒単位で知りたいです。
CMTime cTime = player_.currentTime; float currentTime = cTime.value / cTime.timescale;
ここでのcurrentTimeは、秒単位の値を取得します。正確なcurrentTime値をミリ秒単位で取得するにはどうすればよいですか?
ios - CMTime と AVFoundation での 1 フレームの移動
AVFoundation でビデオを再生しようとしています。再生を 1 フレーム進めるボタンに次のコードを使用しています。
断続的に動作し、一部の実行では正しいことを実行して 1 フレーム進みますが、ほとんどの場合、フレームを進める前にボタンを 3 回または 4 回押す必要があります。
これは、ある種の精度の問題だと思いますが、それが何であるかはわかりません。実行されるたびに、新しい CMTime は同じ量だけ進んでいるように見えます。
私の他の理論は、 currentTime がフレームレートで正確なフレーム境界に設定されていないことが原因である可能性があります(ビデオをシークすることが原因です)。しかし、自分のフレーム レートで最も近いフレームに「スナップ」する方法がわかりません。
ご協力いただきありがとうございます!
iphone - AVPlayer からの現在の時刻で UISlider を更新しようとしています
AVPlayer からの現在の時刻で UISlider を更新しようとしています。NSTimer を使用して、このコードで 1 秒ごとにメソッドを呼び出します。
CMTime duration = audioPlayer.currentTime;
float seconds = CMTimeGetSeconds(duration);
NSLog(@"duration: %.2f", seconds);
nowPlayingSlider.value = seconds;
時間は正しく記録されていますが、uislider は更新されません。
iphone - NSValue が応答しない可能性があります... 警告
XCode で警告が表示されますNSValue may not respond to +valueWithCMTime:'
が、何が間違っているのかわかりません。私のヘッダーファイルには、これがあります:
私の実装ファイルには、これがあります:
上記の行を別のクラスの他の場所で使用しましたが、警告はありません。この行には何が欠けているのでしょうか? メソッドの設定方法と関係がありますか?
objective-c - AVMutableAudioMix - フェードアウトできない
AVComposition トラック (ビデオのオーディオ トラック) をフェードアウトしようとしています。
最初は問題なくフェードアップできますが、最後にフェードアウトするのに苦労しています。これが私のコードです:
length
秒単位のビデオの長さである NSUInteger です。
totalDuration
タイムスケールのビデオの合計再生時間の CMTime です。kVideoFPS
kVideoFPS
値が 30 の定数
私の目標は、作曲の終わりから 5 秒後にフェードアウトを開始することです。CMTimeMakeWithSeconds など、あらゆる種類のことを試しました。フェードインの値も逆にしましたが、うまく機能します (開始時にボリュームを 1.0 から 0.0 にフェードします)。
どんな考えでも大歓迎です!
iphone - iOS で setVolumeRampFromStartVolume が機能しないフェードイン フェードアウトでオーディオを保存する
iPhone プロジェクトのオーディオ ファイルをカットしようとしています。カットして保存することはできますが、フェードイン/フェードアウトを適用しようとしても機能しません。オーディオ ファイルはカットされて保存されますが、フェードされません。
次のコードを使用しています。
iphone - CMTimeをCoreDataに保存しますか?
これまでに回答があった場合は申し訳ありませんが、ここで回答が見つかりません。
CoreDataを使用してCMTime値を保存するにはどうすればよいですか?
前もって感謝します。
objective-c - CMTime秒出力
これはばかげているように見えるかもしれませんが、Objective-CのコンソールにCMTimeの秒数を出力するにはどうすればよいですか?値をタイムスケールで割った値が必要なだけで、どういうわけかコンソールに表示されます。