私は最新のモバイル開発者ではありませんので、ご容赦ください。私は友人と話していて、興味があります。オーディオの経験はありますが、最新のswift + iosの経験はありません。
YouTubeプレーヤーが埋め込まれたビューがあったとしましょう。私が見つけた迅速なプレーヤー (ポッドなど) は、オーディオ チャネルのようにストリームまたはオブジェクトとして公開されていないようです。例えば:
// from the pod swift-audio-player
// Import Swift module
import YouTubePlayer
@IBOutlet var videoPlayer: YouTubePlayerView!
// init YouTubePlayerView w/ playerFrame rect (assume playerFrame declared)
var videoPlayer = YouTubePlayerView(frame: playerFrame)
// Load video from YouTube ID
videoPlayer.loadVideoID("nfWlot6h_JM")
プレーヤーには再生を制御する機能がありますが、低レベルのものはありません。別のライブラリを介して mpeg ストリームを取得でき、 でオーディオ ストリームにアクセスできると仮定しましょうmpegStream.audioChannels()
。
これを と統合するにはどうすればよいAudioKit
でしょうか? ドキュメントからノードをミックス/キャプチャする方法は理解していますが、ビデオ プレーヤーのストリームをどこに接続しますか?
AVFoundationと互換性のあるものを探してサンプラーを付けていただけませんか?
// assume some library here
let mpeg = mpegStream.audioChannels()
// do audiokit sampling here and be able to capture audio
// like a karaoke machine / audio editor / sampler / sound board
import AudioKit
// attach node to mixer ??
// What interface could I look for? AVFoundation stream? Does AudioKit do that?
// from here .. I am clear with concepts.
// AudioKit lets you capture/route/modify audio in buffers just like
// A DAW or how SoundFlower works.
私の質問は、youtube プレーヤーまたは mpeg ストリームと AudioKit の間の配線は何ですか? AudioKit が何を望んでいるか、または現実的な共通インターフェイスが何であるかがわかりません。YouTubeストリームがどのように取得されるかにもよると思いますが、これらの高レベルのプレーヤーポッド/ライブラリがなくてもmpegストリームを生で取得できますか? 次に、AVFoundation インターフェイスを探します (AVFoundation タイプを取得し、AVFoundation タイプを AudioKit に渡します)。