web-dev-qa-db-ja.com

Python周波数検出

私がやろうとしているのは、一般的な周波数を検出できるオーディオ処理ソフトウェアです。周波数が十分に長い間(数ミリ秒)再生されている場合、私は肯定的な一致を得たことを知っています。私はFFTまたは類似の何かを使用する必要があることを知っていますが、この数学の分野では、インターネットを検索しましたが、これしかできないコードは見つかりませんでした。

達成しようとしている目標は、自分でデータトラフサウンドを送信するためのカスタムプロトコルを作成し、非常に低いビットレート/秒(5-10bps)を必要とすることですが、送信側で非常に制限されているため、受信ソフトウェアはカスタムできる必要があります(実際のハードウェア/ソフトウェアモデムを使用することはできません)また、これをソフトウェアのみにしたい(サウンドカード以外の追加のハードウェアはありません)

助けてくれてありがとう。

32
MatijaG

aubio ライブラリはSWIGでラップされているため、Pythonで使用できます。それらの多くの機能の中には、ピッチ検出/推定のためのいくつかの方法が含まれています [〜#〜] yin [〜#〜] アルゴリズムといくつかのハーモニックコムアルゴリズムを含みます。

ただし、もっと簡単なものが必要な場合は、しばらく前にピッチ推定用のコードをいくつか書きました。 aubioのアルゴリズムを使用するほど正確ではありませんが、ニーズには十分である可能性があります。基本的には、データのFFTをウィンドウ(この場合はブラックマンウィンドウ)に掛け、FFT値を2乗し、最高値のビンを見つけ、最大値の対数を使用してピークの周りの2次補間を使用しました基本周波数を見つけるための2つの隣接値。私が見つけたいくつかの論文から取った二次補間。

テストトーンではかなりうまく機能しますが、上記の他の方法ほど堅牢または正確ではありません。精度は、チャンクサイズを増やすことで向上させることができます(または、減らすことで低下させます)。 FFTを最大限に活用するには、チャンクサイズを2の倍数にする必要があります。また、重複のない各チャンクの基本ピッチのみを決定しています。 PyAudioを使用して、推定ピッチを書きながらサウンドを再生しました。

ソースコード:

# Read in a WAV and find the freq's
import pyaudio
import wave
import numpy as np

chunk = 2048

# open up a wave
wf = wave.open('test-tones/440hz.wav', 'rb')
swidth = wf.getsampwidth()
RATE = wf.getframerate()
# use a Blackman window
window = np.blackman(chunk)
# open stream
p = pyaudio.PyAudio()
stream = p.open(format =
                p.get_format_from_width(wf.getsampwidth()),
                channels = wf.getnchannels(),
                rate = RATE,
                output = True)

# read some data
data = wf.readframes(chunk)
# play stream and find the frequency of each chunk
while len(data) == chunk*swidth:
    # write data out to the audio stream
    stream.write(data)
    # unpack the data and times by the hamming window
    indata = np.array(wave.struct.unpack("%dh"%(len(data)/swidth),\
                                         data))*window
    # Take the fft and square each value
    fftData=abs(np.fft.rfft(indata))**2
    # find the maximum
    which = fftData[1:].argmax() + 1
    # use quadratic interpolation around the max
    if which != len(fftData)-1:
        y0,y1,y2 = np.log(fftData[which-1:which+2:])
        x1 = (y2 - y0) * .5 / (2 * y1 - y2 - y0)
        # find the frequency and output it
        thefreq = (which+x1)*RATE/chunk
        print "The freq is %f Hz." % (thefreq)
    else:
        thefreq = which*RATE/chunk
        print "The freq is %f Hz." % (thefreq)
    # read some more data
    data = wf.readframes(chunk)
if data:
    stream.write(data)
stream.close()
p.terminate()
41
Justin Peel

データのエンコードに FSK(周波数シフトキーイング) を使用する場合は、おそらく Goertzelアルゴリズム を使用する方がよいので、必要な周波数だけをチェックできます。 、完全なDFT/FFTの代わりに。

6
Guilherme

here からサウンド上のスライディングウィンドウの周波数スペクトルを見つけることができます。そして here

1
Hapalop

以前にPython=を使って音声処理を試したことはありませんが、おそらく、効率的な科学/エンジニアリングのためのフレームワークである SciPy (またはそのサブプロジェクトNumPy)に基づいて何かを構築できます数値計算?FFTの scipy.fftpack を調べることから始めます。

0
Karmastan