aubioライブラリは SWIG でラップされているため、Python で使用できます。それらの多くの機能の中には、YINアルゴリズムやいくつかのハーモニック コム アルゴリズムなど、ピッチ検出/推定のためのいくつかの方法が含まれています。
ただし、もっと単純なものが必要な場合は、ピッチ推定用のコードを少し前に書いたので、それを取るかそのままにしておくことができます。aubio でアルゴリズムを使用するほど正確ではありませんが、ニーズには十分である可能性があります。私は基本的に、データの FFT にウィンドウ (この場合はブラックマン ウィンドウ) をかけ、FFT 値を 2 乗し、最も高い値を持つビンを見つけ、最大値の対数を使用してピークの周りに 2 次補間を使用しました。およびその 2 つの隣接する値を使用して、基本周波数を見つけます。私が見つけたいくつかの紙から取った二次補間。
テスト トーンではかなりうまく機能しますが、上記の他の方法ほど堅牢でも正確でもありません。精度は、チャンク サイズを大きくすることで向上させることができます (または、小さくすることで小さくすることができます)。FFT を最大限に活用するには、チャンク サイズを 2 の倍数にする必要があります。また、重複のない各チャンクの基本ピッチのみを決定しています。推定ピッチを書き出しながら、PyAudio を使用してサウンドを再生しました。
ソースコード:
# Read in a WAV and find the freq's
import pyaudio
import wave
import numpy as np
chunk = 2048
# open up a wave
wf = wave.open('test-tones/440hz.wav', 'rb')
swidth = wf.getsampwidth()
RATE = wf.getframerate()
# use a Blackman window
window = np.blackman(chunk)
# open stream
p = pyaudio.PyAudio()
stream = p.open(format =
p.get_format_from_width(wf.getsampwidth()),
channels = wf.getnchannels(),
rate = RATE,
output = True)
# read some data
data = wf.readframes(chunk)
# play stream and find the frequency of each chunk
while len(data) == chunk*swidth:
# write data out to the audio stream
stream.write(data)
# unpack the data and times by the hamming window
indata = np.array(wave.struct.unpack("%dh"%(len(data)/swidth),\
data))*window
# Take the fft and square each value
fftData=abs(np.fft.rfft(indata))**2
# find the maximum
which = fftData[1:].argmax() + 1
# use quadratic interpolation around the max
if which != len(fftData)-1:
y0,y1,y2 = np.log(fftData[which-1:which+2:])
x1 = (y2 - y0) * .5 / (2 * y1 - y2 - y0)
# find the frequency and output it
thefreq = (which+x1)*RATE/chunk
print "The freq is %f Hz." % (thefreq)
else:
thefreq = which*RATE/chunk
print "The freq is %f Hz." % (thefreq)
# read some more data
data = wf.readframes(chunk)
if data:
stream.write(data)
stream.close()
p.terminate()