导读:本文包含了混合语音信号论文开题报告文献综述及选题提纲参考文献,主要关键词:麦克风阵列,盲源分离,混合语音,FastICA算法
混合语音信号论文文献综述
曾庆源,谭万威,吴海英[1](2019)在《混合语音信号的声源分离》一文中研究指出语言通讯是人类最基本的交流通讯手段之一,而作为收集语音的有效工具麦克风,可以录入人类语音信号。笔者研究一种基于麦克风阵列的说话分离技术,利用两个麦克风采集混合声音信号,使之分离出两个声源的语音内容,能够识别语音内容。本设计完成了由两个麦克风收集两段声源的混合声音信号,运用独立成分分析FastICA算法分离两段混合声源信号并可以进行播放,成功识别后以文本形式显示在7英寸的LCD。(本文来源于《信息与电脑(理论版)》期刊2019年18期)
邹彤,王英,董姝敏,隋鹏[2](2019)在《混合语音信号的盲源分离技术研究》一文中研究指出本文主要研究了常见的叁种混合模型(线性瞬时混合、线性卷积混合和非线性混合)的盲源分离问题,阐述了它们各自的原理和方法,并讨论了算法好坏的衡量方法和优化方法。本文对众多学者提出的改进的仿生智能优化算法进行了整理与总结。最后,对待解决的语音信号盲源分离问题进行了归纳总结,为进一步研究提供了明确的方向。(本文来源于《单片机与嵌入式系统应用》期刊2019年08期)
可杨,董小东,颜博[3](2019)在《混合语音信号盲分离专利技术综述》一文中研究指出文章统计分析了混合语音信号盲分离领域的专利申请,并对专利技术进行分解,统计了国内外历年申请量、技术产出国家/地区分布、申请人分布,并根据被引频次数列举核心专利申请。分析表明语音盲分离技术在国内还处于方兴未艾的研究阶段。基于瞬时线性混合模型的解决方案,衍生出了各类应用场合和侧重点不同的算法。(本文来源于《中国科技信息》期刊2019年05期)
杨万钊[4](2018)在《语音/音频混合编码器中的信号分类算法研究》一文中研究指出语音/音频混合编码器依据输入信号的类型,选择对应的编码算法,在统一框架下获得了对语音和音乐信号的最佳编码增益。信号类型判断的准确率是混合编码器编码质量的决定性因素之一。3GPP 编码标准 AMR-WB+(Extended Adaptive Multi-Rate-Wideband codec)和 EVS(Codec for Enhanced Voice Service)是混合编码器的典型代表。AMR-WB+的编码模式有闭环模式和开环模式,闭环模式拥有较高的编码质量,但计算复杂度也高;开环模式的计算复杂度显着下降,但信号分类准确率较低,导致编码质量欠佳。而EVS标准不存在闭环模式,编码复杂度低,但其基于高斯混合模型(Gaussian Mixed Model,GMM)的信号分类准确率仍有提升空间。针对上述问题,本文考虑到神经网络在信号分类中的突出表现,以及音频信号连续样本之间的时间相关性,提出基于循环神经网络(Recurrent Neural Net-work,RNN)的语音/音乐信号分类算法,针对上述两个编码标准的实际情况,进行网络设计、优化与实现。主要工作与贡献包括:(1)面向AMR-WB+的RNN分类器从AMR-WB+编码参数中选取特征,并以闭环模式选择的信号类型作为数据标签,构成训练数据,对设计的RNN网络进行训练,建立适用于AMR-WB+开环模式的语音/音乐分类算法。目标是使开环模式下的信号分类结果拟合闭环模式下的模式选择结果,从而以开环模式的计算复杂度,获得闭环模式的编码质量。为满足该需求,本文设计实现了面向AMR-WB+的RNN分类器,在实验过程中解决了训练数据不平衡等问题,并从优化编码信噪比的角度针对性地对RNN网络进行输出控制,使得重建音频信号的信噪比得到最大化的提升。实验结果显示,本文提出的面向AMR-WB+的RNN分类算法复杂度与开环模式相当,分类准确率的提升率达到接近20%,编码主观质量与闭环模式相当。(2)面向EVS的RNN分类器EVS无法利用类似AMR-WB+闭环编码的方式获得数据标签,只能依靠主观判断得到数据标签。为保证主观标签的可靠性,必须保证数据的纯度。为此,本文选择专业音频数据库中的语音和音乐数据,构成训练集和测试集。以EVS原有分类器的分类特征作为本文的分类特征。经过分析和实验,确定RNN网络的相关参数。实验结果显示,对语音和音乐数据,基于RNN的分类器的分类准确率均优于EVS原有分类器,尤其是对音乐数据,分类准确率提升更为明显。本文所做工作对于提升语音/音频混合编码器的性能具有重要意义。(本文来源于《武汉大学》期刊2018-04-01)
荣鹤[5](2015)在《基于学习字典的单声道混合语音信号提取》一文中研究指出语音信号是人们获取信息的重要来源之一,对语音信号的研究主要包括语音信号提取、语音信号分离和语音信号识别等。其中如何从混合信号中准确地提取出目标源信号一直是语音信号处理领域的热点问题。语音信号的提取指的是在信号源未知的前提下,根据接收到的观测信号,只对其中一个或多个感兴趣的源信号进行恢复的过程。根据系统中接收到的观测信号的个数,该问题可分为多声道语音提取和单声道语音提取问题,但单声道语音提取问题的求解较为困难。因此本文利用自然信号在其变换域上普遍存在稀疏性的这一特点,将解析稀疏表示模型应用到单声道混合语音信号的提取中。首先,利用待提取的语音信号作为字典学习的训练信号,并采用解析字典学习算法得到待提取语音信号的解析字典;然后,通过估计字典中与学习训练信号相互正交的字典子集,利用该字典子集与其他干扰信号的非正交的特点,提取出目标信号,实现单声道情况下的混合语音信号的提取。(本文来源于《南昌大学》期刊2015-05-24)
芦伟东,杨省伟,周平[6](2015)在《EMD算法和Hilbert算法混合的语音信号降噪和提取》一文中研究指出针对语音信号降噪和提取算法存在降噪效果不佳等问题,已经无法满足现在社会的需求。本文提出一种基于改进EMD算法和Hilbert算法混合的语音信号降噪和提取方法,首先针对EMD算法在语音信号降噪可能破坏噪声特性的问题,利用全局阈值选择去噪的方法对其进行改进,然后引入Hil-bert算法将其与EMD算法融合,对语音信号进行降噪和提取。利用仿真实验可以发现:将EMD算法和Hilbert算法进行混合优化,和传统的小波变换语音信号降噪算法,不容易出现差错并且具有更好的降噪性能。(本文来源于《科技通报》期刊2015年03期)
屈俊玲,李鸿燕[7](2014)在《基于计算听觉场景分析的混合语音信号分离算法研究》一文中研究指出人耳听觉系统能够在强噪声的环境下区分出自己感兴趣的语音,基于计算听觉场景分析(CASA)的基本原理,其重点和难点是找到合适的声音分离线索,完成目标语音信号和噪声信号的分离。针对单通道浊语音分离的问题,提出了一种以基音为线索的浊语音信号分离算法。在白噪声、鸡尾酒会噪声等六种噪声干扰条件下,通过仿真实验结果表明,相比于传统的谱减法,语音分离算法的输出信噪比平均提高了7.47 d B,并有效抑制了干扰噪声,改善了分离效果。(本文来源于《计算机应用研究》期刊2014年12期)
曹康[8](2014)在《基于视听觉信息融合的欠定语音混合信号盲分离》一文中研究指出盲源分离是指源信号及其混合方式未知的情况下,仅仅根据观测到的混合信号来恢复源信号的过程。盲源分离技术在无线电通信、雷达与声纳信号处理、医学图像分析、图像信号处理以及语音识别等领域具有广泛和潜在的应用价值。在实际应用中,由于条件限制,源信号的个数往往大于麦克风的个数,也就是源信号个数大于观测信号个数,此时盲源分离为欠定混合信号的盲源分离问题。对于欠定混合信号的盲分离,由于其混合矩阵的不可逆性,使得常用的盲源分离技术,如独立分量分析,不能直接用于欠定盲源分离。而且,现有的盲源分离算法大多是采用单模式的盲源分离方法,也就是只利用了听觉信息来估计语音信号。而近年来研究表明,人类对语音信号的感知通常是双模式的,也就是利用人类的视觉信息来辅助对语音信号的感知,提高人类对语音信号的感知能力。为了提高机器听觉的感知能力,本文主要研究双模式条件下的欠定混合信号的盲源分离问题,也就是利用机器视觉信息来辅助提高机器对语音信号的感知能力。本文的主要工作为:1、针对无回响欠定混合模型,提出了一种基于DUET (Degenerate Un-mixingEstimation Technique)的高斯势函数算法来恢复源信号。该算法利用语音信号在时频域的稀疏特性,利用两路观测信号在时频域的比值来估计两路观测信号之间的延时和衰减,然后采用高斯势函数法来估计混合参数;最后利用估计出的混合参数来估计各个源信号所对应的时频掩码从而得到源信号的估计。2、针对混合参数的初值选取问题,提出了一种基于视听觉信息融合的势函数法来实现欠定混合信号的盲分离。该算法首先利用视觉信息估计出声源的位置,利用位置信息再计算出到达两个声音传感器的时间差和声级差,利用时间差和声级差来设置混合参数的初始值;然后采用高斯势函数法来估计混合参数;最后利用二进制时频掩码方法来重构源信号。该算法与一般的随机赋初值的聚类算法相比提高了混合参数的精度。(本文来源于《南昌大学》期刊2014-05-24)
屈俊玲[9](2014)在《基于计算听觉场景分析的混合语音信号分离算法研究》一文中研究指出计算听觉场景分析(CASA)是现代语音信号处理研究领域中的一个新兴课题。在自然环境下,来自于多个声音源的混合语音信号形成了一个典型的听觉场景,基于听觉场景分析(ASA)可以从复杂声学环境中分离出目标语音,分离效果比较理想,但是随着人机交互学、自动语音识别(ASR)、助听器设计等研究的需要,噪声环境下的语音分离算法仍然存在较大的挑战。本文主要针对计算听觉场景分析(CASA)分离混合语音信号的问题进行研究,归纳和分析了当前基于CASA的语音分离算法和声音、噪声的一些特性,重点研究了基于信号能量的混合语音分离算法和基于信号起始时刻和截止时刻的语音分离算法,具体工作和创新如下:人耳听觉系统对于语音信号高低频的处理机制不一样,而且混合语音信号在高频段的能量较低,容易受到噪声的干扰,根据这一特性,提出基于信号能量的混合语音分离算法,在听觉分割之前先计算信号的能量值,由于高频部分能量较低,因此,根据能量比值去除掉信号高频部分有可能来自噪声的那些时频(T-F)单元。这样,听觉重组之后的目标语音信号将更少的受到噪声干扰,使得分离结果更有效。对于不同声音源的信号,几乎不可能具有相同的开始时刻和截止时刻,因此,基于这一声音线索,也可以完成混合语音信号的分离。本文采用一种准确的包络提取算法提取信号的开始时刻点onset和截止时刻点offset,然后进行包络平滑,对候选的起止和截止时刻点进行检测和组合,得到听觉片段,最终根据二值模知识分离出目标语音信号。本文在Win7平台Visual C++6.0开发环境下,选用Cookie数据集进行仿真实验,并对实验结果进行了性能评估,验证了所提算法的有效性和可行性。(本文来源于《太原理工大学》期刊2014-05-01)
高榕,张仕凯,李靖,余昭杰,丁传鹏[10](2012)在《自适应滤波器消除语音信号中混合噪声》一文中研究指出语音信号在实际采集和传输的过程中,往往掺杂着多种噪声干扰,比较常见的是正弦窄带干扰和高斯白噪声,而一个简单的自适应滤波器往往很难同时滤除多种噪声。为了抑制混合噪声而得到真实的语音信号,在最小均方误差(LMS)自适应算法和自适应噪声抵消原理的基础上,提出了一种两级自适应滤波器方案,第Ⅰ级在传统噪声抵消系统中加入延迟单元消除正弦窄带干扰,第Ⅱ级用LMS自适应噪声抵消器消除高斯白噪声,同时,利用Simulink模块库对所设计的两级自适应滤波器进行了建模仿真。仿真结果表明:该方案滤波器可以有效地滤除包含正弦窄带干扰和高斯白噪声的混合噪声,达到提高语音质量的目的。(本文来源于《河南科技大学学报(自然科学版)》期刊2012年04期)
混合语音信号论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要研究了常见的叁种混合模型(线性瞬时混合、线性卷积混合和非线性混合)的盲源分离问题,阐述了它们各自的原理和方法,并讨论了算法好坏的衡量方法和优化方法。本文对众多学者提出的改进的仿生智能优化算法进行了整理与总结。最后,对待解决的语音信号盲源分离问题进行了归纳总结,为进一步研究提供了明确的方向。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
混合语音信号论文参考文献
[1].曾庆源,谭万威,吴海英.混合语音信号的声源分离[J].信息与电脑(理论版).2019
[2].邹彤,王英,董姝敏,隋鹏.混合语音信号的盲源分离技术研究[J].单片机与嵌入式系统应用.2019
[3].可杨,董小东,颜博.混合语音信号盲分离专利技术综述[J].中国科技信息.2019
[4].杨万钊.语音/音频混合编码器中的信号分类算法研究[D].武汉大学.2018
[5].荣鹤.基于学习字典的单声道混合语音信号提取[D].南昌大学.2015
[6].芦伟东,杨省伟,周平.EMD算法和Hilbert算法混合的语音信号降噪和提取[J].科技通报.2015
[7].屈俊玲,李鸿燕.基于计算听觉场景分析的混合语音信号分离算法研究[J].计算机应用研究.2014
[8].曹康.基于视听觉信息融合的欠定语音混合信号盲分离[D].南昌大学.2014
[9].屈俊玲.基于计算听觉场景分析的混合语音信号分离算法研究[D].太原理工大学.2014
[10].高榕,张仕凯,李靖,余昭杰,丁传鹏.自适应滤波器消除语音信号中混合噪声[J].河南科技大学学报(自然科学版).2012