您的位置 首页 > 数码极客

如何用python提取图像特征值

深度学习和机器学习在图像和视觉方面有很多的研究,而且取得了很好的效果,但是在音频处理方面还是比较弱,还有很大的提升空间。图像上有openCV这个强大的库,而在音频方面有哪些比较合适的库呢?这里说的是python支持的库,因为本人接触的主要还是python。所以今天就介绍一下python处理音频的库。

进入正题:Python有一些很棒的音频处理库,比如Librosa和PyAudio,今天着重学习一下librosa库,这个库的安装非常简单,和其它库安装一样,直接pip install librosa就行了。以下代码在jupyter notebook中完成。

In[1]:

import librosa as lr Audio_path = './data; x, sr = lr.load(audio_path) #sr-sample rate采样率 print(type(x),type(sr)) prin)

Out[2]:

<class 'num;> <class 'int'> (127200,) 22050 #这会将音频时间序列作为numpy数组返回,默认采样率sr为22KHZ mono我们可以通过以下方式更改: lr.load(audio_path, sr = 44100) #以44.1KHZ重新采样,或者禁重新采样。采样率是每秒传输的音频样本数。 lr.load(audio_path, sr=None)

Out[3]:

(array([-3.0517578e-04, -2.7465820e-04, -3.6621094e-04, ..., -1.2207031e-04, -9.1552734e-05, -9.1552734e-05], dtype=float32), 44100)

In [4]:

#使用I播放音频 import IPy as ipd i(audio_path)

可视化音频:

可视化音频的目的主要让你更直观的理解音频特征

In [5]:

#波形:我们可以绘制音频数组libro: %matplotlib inline import ma as plt import libro (figsize = (14,5)) libro(x, sr = sr)

<ma at 0x1fac21

In[8]

#谱图:谱图是通过视觉表示频谱的频率,声音或其它信号,因为它随时间变化。频谱图有时被称为声纹或语音图。当数据在3D中表示时,它们可以称为waterfalls。 #在二维阵列中,第一轴是频率,第二轴是时间。我们可以使用显示频谱图:libro.specshow: X = libro(x) #对信号进行短时傅里叶变换 Xdb = libro(abs(X)) (figsize=(14,5)) libro.specshow(Xdb, sr=sr, x_axis='time', y_axis='hz') ()

<ma at 0x1fac2234c50>

In[9]

#从轴表示频率(从0到10kHZ),横轴表示剪辑的时间,由于我们看到的所有动作都发生在频谱的底部,我们可以将频谱轴转换为对数轴。 (figsize=(14,5)) libro.specshow(Xdb, sr=sr, x_axis='time', y_axis='log') ()

<ma at 0x1fac5077080>

In[10]:

#写音频:libro 将Numpy数组保存到wav文件, 下面举例说明它的用法。 libro('exam;, x, sr)

#创建音频信号:现在让我们创建一个220Hz的音频信号,音频信号是一个numpy数组,所以我们将创建一个并将其传递给音频函数

import numpy as np #sample rate sr = 22050 #seconds T = 5.0 #time variable,linspace()产生一个固定间隔的一个序列的一维数组 t = np.linspace(0, T, int(T*sr), endpoint=False) #pure sine wave at 220Hz x = 0.5*np.sin(2*np.pi*220*t) #播放这个音频 i(x, rate=sr)

In [11 ]:

#保存这个音频信号 libro(';, x, sr)

音频特征提取:

每个音频信号都包含许多特征。但是,我们必须提取与我们试图解决的问题相关的特征,提取要使用它们进行分析的特征的过程称为特征提取 接下来我们详细了解一下我们感兴趣的特征:

过零率:

该特征在语音识别和音乐信息检索中被经常使用。

过零率(Zero Crossing Rate,ZCR)是指在每帧中,语音信号通过零点(从正变为负或从负变为正)的次数。 这个特征已在语音识别和音乐信息检索领域得到广泛使用,比如敲击声音的分类,过零率是分类的关键特征。

特性:

  1. 一般而言,清音(unvoiced sound)和环境噪音的ZCR都大于浊音(voiced sound);
  2. 由于清音和环境噪音的ZCR大小相近,因而不能够通过ZCR来区分它们;
  3. 在实际当中,过零率经常与短时能量特性相结合来进行端点检测,尤其是ZCR用来检测清音的起止点;
  4. 有时也可以用ZCR来进行粗略的基频估算,但这是非常不可靠的,除非有后续的修正(refine)处理过程。

那我们看看如何计算音频片段的过零率:

In [12]:

#过零率的计算 #导入音频文件 x, sr = libro('./data;) (figsize=(14,5)) libro(x, sr=sr) #放大局部查看 n0 = 9000 n1 = 9100 (figsize=(14,5)) (x[n0:n1]) ()

#这里举一个不需要librosa库来实现过零率的计算方法 import math import numpy as np def ZeroCR(waveData,frameSize,overLap): wlen = len(waveData) step = frameSize - overLap frameNum = ma(wlen/step) zcr = np.zeros((frameNum,1)) for i in range(frameNum): curFrame = waveData[np.arange(i*step,min(i*step+frameSize,wlen))] curFrame = curFrame - np.mean(curFrame) # 过零点判断 zcr[i] = sum(curFrame[0:-1]*curFrame[1::]<=0) return zcr #通过上面定义的函数来计算过零率 import math import wave import numpy as np import pylab as pl # ============ 测试一下算法 ============= # 读取音频 fw = wave.open('./data;,'rb') params = () print(params) nchannels, sampwidth, framerate, nframes = params[:4] str_data = (nframes) wave_data = np.frombuffer(str_data, dtype=np.short) wave_da = -1, 1 #wave_data = wave_da () # 计算过零率 frameSize = 256 overLap = 0 zcr = ZeroCR(wave_data,frameSize,overLap) # 可视化结果 time = np.arange(0, len(wave_data)) * / framerate) time2 = np.arange(0, len(zcr)) * (len(wave_data)/len(zcr) / framerate) (figsize=(14,10)) (211) (time, wave_data) ("Amplitude") (212) (time2, zcr) ("ZCR") ("time (seconds)") ()

_wave_params(nchannels=1, sampwidth=2, framerate=4

In[13]:

#验证一下有几个过零点, 本例中的片段含有3个 zero_crossings = libro(x[n0:n1], pad=False) print(sum(zero_crossings)) 3

光谱质心:

谱质心(Spectral Centroid)是描述音色属性的重要物理参数之一,是频率成分的重心,是在一定频率范围内通过能量加权平均的频率,其单位是Hz。它是声音信号的频率分布和能量分布的重要信息。在主观感知领域,谱质心描述了声音的明亮度,具有阴暗、低沉品质的声音倾向有较多低频内容,谱质心相对较低,具有明亮、欢快品质的多数集中在高频,谱质心相对较高。该参数常用于对乐器声色的分析研究。

如果有两首曲子,一首来自布鲁斯类型,另一首属于金属。与长度相同的布鲁斯流派歌曲相比,金属歌曲在最后有更多的频率。因此,布鲁斯歌曲的光谱质心将位于其光谱中间附近,而金属歌曲的光谱质心将朝向它的末端。 libro计算信号中每帧的光谱质心:

In [14]:

#计算光谱质心 spectral_centroids = libro(x, sr=sr)[0]

(249,)

In [15]:

#可视化每一帧的质心

import sklearn frames = range(len(spectral_centroids)) t = libro(frames) #归一化光谱质心 def normalize(x, axis=0): return (x, axis=axis) #沿着音频波形绘制光谱质心 (figsize=(14,5)) libro(x, sr=sr, alpha=0.4) (t, normalize(spectral_centroids), color='r')

[<ma at 0x1fac68cfef0>]

光谱衰减:

它是信号形状的度量。libro计算信号中每帧的滚降系数:

In [16]:

#计算光谱衰减: spectral_rolloff = libro(x+0.01, sr=sr)[0] (figsize=(14,5)) libro(x, sr=sr, alpha=0.4) (t, normalize(spectral_rolloff), color='r')

[<ma at 0x1fac6855748>]

梅尔频率倒谱系数:

声音信号是连续变化的,为了将连续变化信号简化,我们假设在一个短时间尺度内,音频信号不发生改变。因此将信号以多个采样点集合成一个单位,称为'''讯框'''。一个讯框多为20-40毫秒,如果讯框长度更短,那每个讯框内的采样点将不足以做出可靠的频谱计算,但若长度太长,则每个讯框信号会变化太大。

预强化的目的就是为了消除发声过程中,声带和嘴唇造成的效应,来补偿语音信号受到发音系统所压抑的高频部分。并且能突显高频的共振峰。

由于信号在时域上的变化通常很难看出信号的特性,所以通常透过傅里叶变换将它变换成频域上的能量分布来观察,不同的能量分布,就能代表不同语音的特性。

由于能量频谱中还存在大量的无用讯息,尤其人耳无法分辨高频的频率变化,因此让频谱通过梅尔滤波器。梅尔滤波器,也就是一组20个非线性分布的三角带通滤波器(Triangular Bandpass Filters),能求得每一个滤波器输出的对数能量。必须注意的是:这 20 个三角带通滤波器在'''梅尔刻度'''的频率上是平均分布的。 梅尔频率代表一般人耳对于频率的感受度,由此也可以看出人耳对于频率 f 的感受是呈对数变化的。

MFCC特征在加性噪声的情况下并不稳定,因此在语音识别系统中通常要对其进行归一化处理(normalise)以降低噪声的影响。一些研究人员对MFCC算法进行修改以提升其鲁棒性,如在进行DCT之前将log-mel-amplitudes提升到一个合适的能量(2到3之间),以此来降低低能量成分的影响。

信号的Mel频率倒谱系数(MFCC)是一小组特征(通常约10-20),其简明地描述了频谱包络的整体形状,它模拟了人声的特征。

In [17]:

#MFCC计算 x, sr = libro('./data;) #通过音频信号计算MFCC mfccs = libro(x, sr=sr) prin) (20, 249)

In [18]:

#显示MFCC图谱 (figsize=(14,5)) libro.specshow(mfccs, sr=sr, x_axis='time')

<ma at 0x1fac51

In[19]:

#以上计算了249帧的20个MFCC。我们还可以执行特征缩放,使得每个系数维度具有零均值和单位方差: #import sklearn mfccs = (mfccs, axis=1) prin(axis=1)) prin(axis=1)) (figsize=(14,5)) libro.specshow(mfccs, sr=sr, x_axis='time')

[-4.3087693e-09 1.9150086e-09 -4.7875215e-09 -1.1968804e-10

-4.2489257e-09 5.7929011e-08 -9.5750430e-09 4.5481454e-09

2.3937607e-09 1.6905936e-09 4.7875215e-09 -6.8222183e-09

4.2190034e-09 7.1812827e-09 4.0693933e-09 -8.1387865e-09

-9.9640296e-09 5.9844023e-09 1.7833518e-08 5.0268976e-09]

[1.0000001 1.0000001 1.0000001 1.0000001 0.9999998 1.0000001

1.0000001 1.0000001 1.0000001 1.0000001 1.0000001 1.0000001

1.0000001 1.0000001 1. 0.99999994 1.0000002 1.0000001

0.99999976 0.9999999 ]

<ma at 0x1fac69

色度频率

色度频率是音乐音频有趣且强大的表示,其中整个频谱被投影到12个区间,代表音乐八度音的12个不同的半音(或色度), libro用于计算色度频率:

In [20]:

#色度频率 x, sr = libro('./data;) hop_length = 512 chromagram = libro(x, sr=sr, hop_length=hop_length) (figsize=(15,5)) libro.specshow(chromagram, x_axis='time', y_axis='chroma', hop_length=hop_length, cmap='coolwarm')

<ma at 0x1facc5

In[21]:

#导入pydub库用于音频文件的截取,上面用到的片段就是从piano中截取的5秒的片段。 from pydub import AudioSegment main_wav_path = './data; # 取出.wav后缀的文件名 sound = AudioSegment.from_wav(main_wav_path) start_time = 0 end_time = 5000 word = sound[start_time:end_time] word.export("./data;, format="wav") <_io.BufferedRandom name='./data;>

关于音频特征处理的一般性方法介绍完了,基于这些知识,接下来可以考虑进一步研究声纹匹配或者音乐分类项目。

责任编辑: 鲁达

1.内容基于多重复合算法人工智能语言模型创作,旨在以深度学习研究为目的传播信息知识,内容观点与本网站无关,反馈举报请
2.仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证;
3.本站属于非营利性站点无毒无广告,请读者放心使用!

“如何用python提取图像特征值,python提取图像特征代码,python图像特征提取与匹配,python图像特征提取进行分割”边界阅读