当前位置: 首页 > news >正文

学习做网页的网站设计制作我的汽车

学习做网页的网站,设计制作我的汽车,改wordpress的wp_admin,做电影网站的服务器需要多大作者 | 陈孝良 责编 | 胡永波 目前来看#xff0c;语音识别的精度和速度比较取决于实际应用环境#xff0c;在安静环境、标准口音、常见词汇上的语音识别率已经超过95%#xff0c;完全达到了可用状态#xff0c;这也是当前语音识别比较火热的原因。 随着技术的发展#xf… 作者 | 陈孝良 责编 | 胡永波 目前来看语音识别的精度和速度比较取决于实际应用环境在安静环境、标准口音、常见词汇上的语音识别率已经超过95%完全达到了可用状态这也是当前语音识别比较火热的原因。 随着技术的发展现在口音、方言、噪声等场景下的语音识别也达到了可用状态但是对于强噪声、超远场、强干扰、多语种、大词汇等场景下的语音识别还需要很大的提升。当然多人语音识别和离线语音识别也是当前需要重点解决的问题。   学术界探讨了很多语音识别的技术趋势有两个思路是非常值得关注的一个是就是端到端的语音识别系统另外一个就是G.E. Hinton最近提出的胶囊理论Hinton的胶囊理论学术上争议还比较大能否在语音识别领域体现出来优势还值得探讨。   端到端的语音识别系统当前也没有大规模应用从理论上来看由于语音识别本质上是一个序列识别问题如果语音识别中的所有模型都能够联合优化应该会获取更好的语音识别准确度这也是端到端语音识别系统的优势。 但是从语音采集、信号处理、特征提取、声学模型、语音模型、解码搜索整个链条都做到端到端的建模处理难度非常大因此现在常说的端到端的模型基本还是局限于声学模型范畴比如将DNN-HMM或者CNN/RNN-HMM模型进行端到端的优化比如CTC准则和Attention-based模型等方法。 事实上端到端的训练可以把真实场景的噪声、混响等也作为新特征来进行学习这样可以减少对于信号处理的依赖只是这种方法还存在训练性能、收敛速度、网络带宽等诸多问题相对于主流的语音识别方法还没有取得明显的优势。   本文以科普为主将知识纵横连接并能结合实践深入浅出的文章对于全面了解语音识别很有帮助。非常感谢国内语音识别领域各位伙伴的支持文中若有不足之处期待大家的指正 语音识别基础知识 数学与统计学 数学是所有学科的基础其中的高等数学、数理方程、泛函分析等课程是必要的基础知识概率论与数理统计也是语音识别的基础学科。   声学与语言学 声学基础、理论声学、声学测量等是声学方面的基础课程有助于了解更多声学领域的知识。语言学概论、语言哲学、语义最小论与语用多元论、语法化与语义图等知识对于理解语言模型和语音交互UI设计非常有帮助。   计算机学 信号系统、数字信号处理、语音信号处理、离散数学、数据结构、算法导论、并行计算、C语言概论、Python语言、语音识别、深度学习等课程也是必备的基础知识。   语音识别专业知识 语音识别的知识体系可以划分为三个大的部分专业基础、支撑技能和应用技能。语音识别的专业基础又包括了算法基础、数据知识和开源平台其中算法基础是语音识别系统的核心知识包括了声学机理、信号处理、声学模型、语言模型和解码搜索等。 专业基础   算法基础 声学机理包括发音机理、听觉机理和语言机理发音机理主要探讨人类发声器官和这些器官在发声过程中的作用而听觉机理主要探讨人类听觉器官、听觉神经及其辨别处理声音的方式语言机理主要探究人类语言的分布和组织方式。这些知识对于理论突破和模型生成具有重要意义。   信号处理包括语音增强、噪声抑制、回声抵消、混响抑制、波束形成、声源定位、声源分离、声源追踪等。具体如下   语音增强这里是狭义定义指自动增益或者阵列增益主要是解决拾音距离的问题自动增益一般会增加所有信号能量而语音增强只增加有效语音信号的能量。 噪声抑制语音识别不需要完全去除噪声相对来说通话系统中则必须完全去除噪声。这里说的噪声一般指环境噪声比如空调噪声这类噪声通常不具有空间指向性能量也不是特别大不会掩盖正常的语音只是影响了语音的清晰度和可懂度。这种方法不适合强噪声环境下的处理但是足以应付日常场景的语音交互。 混响消除混响消除的效果很大程度影响了语音识别的效果。一般来说当声源停止发声后声波在房间内要经过多次反射和吸收似乎若干个声波混合持续一段时间这种现象叫做混响。混响会严重影响语音信号处理并且降低测向精度。 回声抵消严格来说这里不应该叫回声应该叫“自噪声”。回声是混响的延伸概念这两者的区别就是回声的时延更长。一般来说超过100毫秒时延的混响人类能够明显区分出似乎一个声音同时出现了两次就叫做回声。实际上这里所指的是语音交互设备自己发出的声音比如Echo音箱当播放歌曲的时候若叫Alexa这时候麦克风阵列实际上采集了正在播放的音乐和用户所叫的Alexa声音显然语音识别无法识别这两类声音。回声抵消就是要去掉其中的音乐信息而只保留用户的人声之所以叫回声抵消只是延续大家的习惯其实是不恰当的。 声源测向这里没有用声源定位测向和定位是不太一样的而消费级麦克风阵列做到测向就可以定位则需要更多的成本投入。声源测向的主要作用就是侦测到与之对话人类的声音以便后续的波束形成。声源测向可以基于能量方法也可以基于谱估计阵列也常用TDOA技术。声源测向一般在语音唤醒阶段实现VAD技术其实就可以包含到这个范畴也是未来功耗降低的关键因素。 波束形成波束形成是通用的信号处理方法这里是指将一定几何结构排列的麦克风阵列的各麦克风输出信号经过处理例如加权、时延、求和等形成空间指向性的方法。波束形成主要是抑制主瓣以外的声音干扰这里也包括人声比如几个人围绕Echo谈话的时候Echo只会识别其中一个人的声音。   端点检测端点检测英语是Voice ActivityDetection简称VAD主要作用是区分一段声音是有效的语音信号还是非语音信号。VAD是语音识别中检测句子之间停顿的主要方法同时也是低功耗所需要考虑的重要因素。VAD通常都用信号处理的方法来做之所以这里单独划分因为现在VAD的作用其实更加重要而且通常VAD也会基于机器学习的方法来做。   特征提取声学模型通常不能直接处理声音的原始数据这就需要把时域的声音原始信号通过某类方法提取出固定的特征序列然后将这些序列输入到声学模型。事实上深度学习训练的模型不会脱离物理的规律只是把幅度、相位、频率以及各个维度的相关性进行了更多的特征提取。   声学模型声学模型是语音识别中最为关键的部分是将声学和计算机学的知识进行整合以特征提取部分生成的特征作为输入并为可变长的特征序列生成声学模型分数。声学模型核心要解决特征向量的可变长问题和声音信号的多变性问题。事实上每次所提到的语音识别进展基本上都是指声学模型的进展。声学模型迭代这么多年已经有很多模型我们把每个阶段应用最为广泛的模型介绍一下其实现在很多模型都是在混用这样可以利用各个模型的优势对于场景的适配更加鲁棒。   GMMGaussian Mixture Model即高斯混合模型是基于傅立叶频谱语音特征的统计模型可以通过不断迭代优化求取GMM中的加权系数及各个高斯函数的均值与方差。GMM模型训练速度较快声学模型参数量小适合离线终端应用。深度学习应用到语音识别之前GMM-HMM混合模型一直都是优秀的语音识别模型。但是GMM不能有效对非线性或近似非线性的数据进行建模很难利用语境的信息扩展模型比较困难。 HMMHidden Markov Model即隐马尔可夫模型用来描述一个含有隐含未知参数的马尔可夫过程从可观察的参数中确定该过程的隐含参数然后利用这些参数来进一步分析。HMM是一种可以估计语音声学序列数据的统计学分布模型尤其是时间特征但是这些时间特征依赖于HMM的时间独立性假设这样对语速、口音等因素与声学特征就很难关联起来。HMM还有很多扩展的模型但是大部分还只适应于小词汇量的语音识别大规模语音识别仍然非常困难。 DNNDeep Neural Network即深度神经网络是较早用于声学模型的神经网络DNN可以提高基于高斯混合模型的数据表示的效率特别是DNN-HMM混合模型大幅度地提升了语音识别率。由于DNN-HMM只需要有限的训练成本便可得到较高的语音识别率目前仍然是语音识别工业领域常用的声学模型。 RNNRecurrent Neural Networks即循环神经网络CNNConvolutional NeuralNetworks即卷积神经网络这两种神经网络在语音识别领域的应用主要是解决如何利用可变长度语境信息的问题CNN/RNN比DNN在语速鲁棒性方面表现的更好一些。其中RNN模型主要包括LSTM多隐层长短时记忆网络、highway LSTM、Residual LSTM、双向LSTM等。CNN模型包括了时延神经网络TDNN、CNN-DNN、CNN-LSTM-DNNCLDNN、CNN-DNN-LSTM、Deep CNN等。其中有些模型性能相近但是应用方式不同比如双向LSTM和Deep CNN性能接近但是双向LSTM需要等一句话结束才能识别而Deep CNN则没有时延更适合实时语音识别。 语言模型通过训练语料学习词之间的关系来估计词序列的可能性最常见的语言模型是N-Gram模型。近年深度神经网络的建模方式也被应用到语言模型中比如基于CNN及RNN的语言模型。   解码搜索解码是决定语音识别速度的关键因素解码过程通常是将声学模型、词典以及语言模型编译成一个网络基于最大后验概率的方法选择一条或多条最优路径作为语音识别结果。解码过程一般可以划分动态编译和静态编译或者同步与异步的两种模式。目前比较流行的解码方法是基于树拷贝的帧同步解码方法。   语音识别数据知识   数据采集主要是将用户与机器对话的声音信息收集起来一般分为近场和远场两个部分近场采集一般基于手机就可完成远场采集一般需要麦克风阵列。数据采集同时还有关注采集环境针对不同数据用途语音采集的要求也很不一样比如人群的年龄分布、性别分布和地域分布等。   数据清洗主要是将采集的数据进行预处理剔除不合要求的语音甚至是失效的语音为后面的数据标注提供精确的数据。   数据标注主要是将声音的信息翻译成对应的文字训练一个声学模型通常要标注数万个小时而语音是时序信号所以需要的人力工时相对很多同时由于人员疲惫等因素导致标注的错误率也比较高。如何提高数据标注的成功率也是语音识别的关键问题。   数据管理主要是对标注数据的分类管理和整理这样更利于数据的有效管理和重复利用。   数据安全主要是对声音数据进行安全方便的处理比如加密等以避免敏感信息泄露。   语音识别开源平台 目前主流的开源平台包括CMU Sphinx、HTK、Kaldi、Julius、iATROS、CNTK、TensorFlow等CMU Sphinx是离线的语音识别工具支持DSP等低功耗的离线应用场景。由于深度学习对于语音识别WER的下降具有明显的作用所以Kaldi、CNTK、TensorFlow等支持深度学习的工具目前比较流行Kaldi的优势就是集成了很多语音识别的工具包括解码搜索等。具体的开源平台汇总如表1所示。 支撑技能   声学器件 传声器通常称为麦克风是一种将声音转换成电子信号的换能器即把声信号转成电信号其核心参数是灵敏度、指向性、频率响应、阻抗、动态范围、信噪比、最大声压级或AOP声学过载点、一致性等。传声器是语音识别的核心器件决定了语音数据的基本质量。 扬声器通常称为喇叭是一种把电信号转变为声信号的换能器件扬声器的性能优劣对音质的影响很大其核心指标是TS参数。语音识别中由于涉及到回声抵消对扬声器的总谐波失真要求稍高。 激光拾声这是主动拾声的一种方式可以通过激光的反射等方法拾取远处的振动信息从而还原成为声音这种方法以前主要应用在窃听领域但是目前来看这种方法应用到语音识别还比较困难。 微波拾声微波是指波长介于红外线和无线电波之间的电磁波频率范围大约在 300MHz至300GHz之间同激光拾声的原理类似只是微波对于玻璃、塑料和瓷器几乎是穿越而不被吸收。 高速摄像头拾声这是利用高速摄像机来拾取振动从而还原声音这种方式需要可视范围和高速摄像机只在一些特定场景里面应用。   计算芯片 DSPDigital Signal Processor数字信号处理器一般采用哈佛架构具有低功耗运算快等优点主要应用在低功耗语音识别领域。 ARMAcorn RISC Machine是英国公司设计的一种RISC处理器架构具有低功耗高性能的特点在移动互联网领域广泛应用目前IOT领域比如智能音箱也是以ARM处理器为主。 FPGAFieldProgrammable Gate Array现场可编程门阵列是ASIC领域中的一种半定制电路既解决了固定定制电路的不足又克服了可编程器件门电路有限的缺点。FPGA在并行计算领域也非常重要大规模的深度学习也可以基于FPGA计算实现。 GPUGraphics Processing Unit图形处理器是当前深度学习领域最火的计算架构事实上深度学习领域用到的是GPGPU主要是进行大规模计算的加速GPU通常的问题就是功耗过大所以一般应用到云端的服务器集群。 另外还有NPU、TPU等新兴的处理器架构主要为深度学习算法进行专门的优化由于还没有大规模使用这里先不详叙。   声学结构 阵列设计主要是指麦克风阵列的结构设计麦克风阵列一般来说有线形、环形和球形之分严谨的应该说成一字、十字、平面、螺旋、球形及无规则阵列等。至于麦克风阵列的阵元数量也就是麦克风数量可以从2个到上千不等因此阵列设计就要解决场景中的麦克风阵列阵型和阵元数量的问题既保证效果又控制成本。 声学设计主要是指扬声器的腔体设计语音交互系统不仅需要收声还需要发声发声的质量也特别重要比如播放音乐或者视频的时候音质也是非常重要的参考指标同时音质的设计也将影响语音识别的效果因此声学设计在智能语音交互系统也是关键因素。   应用技能   语音识别的应用将是语音交互时代最值得期待的创新可以类比移动互联时代最终黏住用户的还是语音应用程序而当前的人工智能主要是基础建设AI的应用普及还是需要一段时间。虽然Amazon的Alexa已经有上万个应用但是从用户反馈来看目前主要还是以下几个核心技术点的应用。 语音控制事实上是当前最主要的应用包括了闹钟、音乐、地图、购物、智能家电控制等等功能语音控制的难度相对也比较大因为语音控制要求语音识别更加精准、速度更快。 语音转录这在比如会议系统、智能法院、智能医疗等领域具有特殊应用主要是实时将用户说话的声音转录成文字以便形成会议纪要、审判记录和电子病历等。 语言翻译主要是在不同语言之间进行切换这在语音转录的基础上增加了实时翻译对于语音识别的要求更高。   下面这三种识别可以归为语音识别的范畴也可以单独列成一类这里我们还是广义归纳到语音识别的大体系作为语音识别的功能点更容易理解。   声纹识别声纹识别的理论基础是每一个声音都具有独特的特征通过该特征能将不同人的声音进行有效的区分。声纹的特征主要由两个因素决定第一个是声腔的尺寸具体包括咽喉、鼻腔和口腔等这些器官的形状、尺寸和位置决定了声带张力的大小和声音频率的范围。第二个决定声纹特征的因素是发声器官被操纵的方式发声器官包括唇、齿、舌、软腭及腭肌肉等他们之间相互作用就会产生清晰的语音。而他们之间的协作方式是人通过后天与周围人的交流中随机学习到的。声纹识别常用的方法包括模板匹配法、最近邻方法、神经元网络方法、VQ聚类法等。   情感识别主要是从采集到的语音信号中提取表达情感的声学特征并找出这些声学特征与人类情感的映射关系。情感识别当前也主要采用深度学习的方法这就需要建立对情感空间的描述以及形成足够多的情感语料库。情感识别是人机交互中体现智能的应用但是到目前为止技术水平还没有达到产品应用的程度。   哼唱识别主要是通过用户哼唱歌曲的曲调然后通过其中的旋律同音乐库中的数据进行详细分析和比对最后将符合这个旋律的歌曲信息提供给用户。目前这项技术在音乐搜索中已经使用识别率可以达到80%左右。 参考文献 1.Deep LearningMethods andApplications,Li Deng and Dong Yu 2.Automaitic Speechand Speaker Recognition: Large Margin and Kernel Methods, Joseph Keshet andSamy Bengio 3.Xuedong Huang, Alex Acero, Hsiao-wuenHon, Spoken Language Processing 4.Lawrence Rabiner,Biing-Hwang Juang, Fundamentals of Speech Recognition 5.Dan jurafsky andJames H. Martin, Speech and Language Processing 6.Dynamic RoutingBetween CapsulesSara SabourNicholas FrosstGeoffrey E. Hinton 7.https://en.wikipedia.org/wiki/Speech_perception 8.http://www.speech.cs.cmu.edu 9.http://htk.eng.cam.ac.uk/ 10.http://kaldi-语音识别.org/ 11.https://www.microsoft.com/en-us/cognitive-toolkit/ 12.http://www.soundpi.org/ 作者简介陈孝良博士声智科技创始人专注声学前沿技术和人工智能交互曾任中国科学院声学研究所副研究员。
http://www.sadfv.cn/news/317853/

相关文章:

  • 海沧网站建设乐山建网站
  • 乾安网站建设哪家好网络 网站建设办公
  • 制作网站注册页面模板产品推广图片
  • 网站 seo优化深圳燃气公司上班时间
  • 建设网站涉及的技术宣传型企业网站
  • 百度知道入口seo优化培训学校
  • 网站建设报告 商业价值新建的网站打不开
  • django做网站比较容易邢台兼职网站有哪些?
  • 网络网站制作技巧音乐播放器网站怎么做
  • 金昌大型网站建设费用wordpress 登录用户
  • 网站信任 用户转化wordpress 请提供有效的用户名.
  • 软件程序员重庆网站seo设计
  • iis做网站文件下载海南茶叶网站建设
  • 外国建筑网站河南省建设厅网网站首页
  • 绵阳做公司网站郑州网站建设套餐
  • 微信网站模板免费下载莱芜招聘网
  • 珠海找工作哪个网站好网站开发遇到的风险
  • 为什么建设法律法规网站佛山顺德网站建设公司哪家好
  • 手机免费创建网站的软件抖音网络推广怎么做
  • 合肥网站seo推广技术开发
  • 汕头网站推广教程腾讯建设网站首页
  • 江苏品牌网站设计新网站排名优化
  • 保定做网站电话中国住房和城乡建设部网站首页
  • 简单的网站设计案例wordpress 后台 慢
  • 网站开发 翻译海北州公司网站建设
  • 做网站设计公司江苏智能网站建设流程
  • 计算机专业论文 网站建设p2p网站如何做推广
  • 购物网站大全棉鞋河南做酒店网络系统网站
  • 摄影网站规划设计书wordpress上传服务器域名
  • 网站建设流程和方法游戏制作公司开发