AVFoundation.frameworkのみを使用して上記を実行できますか?
私はいくつかの実験を試みましたが、実際にそれを機能させることができません
(ここで申し訳ありませんが、例:ViewControllerまたはMainViewでコードを配置する場所を教えてください)
これらは私のコードです(私はインターフェイスビルダーを使用したくないので、UIコンポーネントは内部にあります)
- (id)initWithFrame:(CGRect)frame {
self = [super initWithFrame:frame];
if (self) {
NSError *error;
buttonPlay = [[UILabel alloc] initWithFrame:CGRectMake(0, 350, 100, 50)];
buttonPlay.text = @"Play";
// Get the file path to the song to play.
NSString* path;
NSURL* url;
path = [[NSBundle mainBundle] pathForResource:@"Bring_Me_To_Life.mp3" ofType:nil];
url = [NSURL fileURLWithPath:path];
NSData *_objectData = [NSData dataWithContentsOfURL:url];
//Initialize the AVAudioPlayer.
audioPlayer = [[AVAudioPlayer alloc] initWithData:_objectData error:&error];
// Preloads the buffer and prepares the audio for playing.
audioPlayer.numberOfLoops = 0;
audioPlayer.volume = 1.0f;
[audioPlayer prepareToPlay];
if (audioPlayer == nil)
NSLog(@"%@", [error description]);
else
[audioPlayer play];
[self addSubview:buttonPlay];
}
return self;
}
-(void)touchesBegan:(CGPoint)location{
if(CGRectContainsPoint(buttonPlay.frame, location)){
NSLog(@"Dec from Chl %f",[audioPlayer peakPowerForChannel:0]);
NSLog(@"Length of Clip %f",[audioPlayer duration]);
}
}