[英]Plotting audio spectrogram in python
我目前有几千个音频剪辑需要用机器学习进行分类。
经过一番挖掘,我发现如果对音频进行短时间傅立叶变换,它会变成二维图像,因此我可以对这些图像使用各种图像分类算法,而不是音频文件本身。
为此,我找到了一个执行 STFT 的python 包,我所需要的只是绘制它,以便我可以获得图像。 对于绘图,我发现这个 github repo非常有用。
最后我的代码变成了这样:
import stft
import scipy
import scipy.io.wavfile as wav
import matplotlib.pylab as pylab
def save_stft_image(source_filename, destination_filename):
fs, audio = wav.read(source_filename)
X = stft.spectrogram(audio)
print X.shape
fig = pylab.figure()
ax = pylab.Axes(fig, [0,0,1,1])
ax.set_axis_off()
fig.add_axes(ax)
pylab.imshow(scipy.absolute(X[:][:][0].T), origin='lower', aspect='auto', interpolation='nearest')
pylab.savefig(destination_filename)
save_stft_image("Example.wav","Example.png")
代码有效,但是我观察到当print X.shape
line 执行时我得到(513L, 943L, 2L)
。 所以结果是3维的。 因此,当我只写X[:][:][0]
或X[:][:][1]
我会得到一个图像。
我一直在阅读这个“冗余”STFT,你可以删除一半,因为你不需要它。 那个第三维是冗余还是我在这里做错了什么? 如果是这样,我如何正确地绘制它?
谢谢你。
编辑:所以新的代码和输出是:
import stft
import os
import scipy
import scipy.io.wavfile as wav
import matplotlib.pylab as pylab
def save_stft_image(source_filename, destination_filename):
fs, audio = wav.read(source_filename)
audio = scipy.mean(audio, axis = 1)
X = stft.spectrogram(audio)
print X.shape
fig = pylab.figure()
ax = pylab.Axes(fig, [0,0,1,1])
ax.set_axis_off()
fig.add_axes(ax)
pylab.imshow(scipy.absolute(X.T), origin='lower', aspect='auto', interpolation='nearest')
pylab.savefig(destination_filename)
save_stft_image("Example.wav","Example.png")
在左边,我得到一列几乎不可见的颜色。 我正在研究的声音是呼吸音,所以它们的频率非常低。 也许这就是为什么可视化是一个非常细的颜色列。
你可能有一个立体声音频文件? 所以X[:][:][0]
和X[:][:][1]
对应每个通道。
您可以通过scipy.mean(audio, axis=1)
将多声道转换为单声道。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.