更“聪明”的定制机?人工智能时代下,助听科技如何发展?
2024-09-03 15:05:15
earsound
577
耳朵听到的只是声音,大脑理解了才能交流,那么大脑聆听过程是怎样的?
奥迪康脑聆听研究表明,在自然聆听过程中,大脑首先需要获取完整的声音场景,对周围环境实现初步的分析,随后大脑的子系统再对某些感兴趣的声音进行关注和分析。
当发生听力损失,需要助听器来补偿时,简单的声音环境(如安静室内一对一交谈)并没有给大脑和助听器带来多大挑战,助听器将声音进行放大,就能让大脑获得足够多的声音信息,来进行关注和分析。
一旦环境变得嘈杂,比如到了餐厅中、马路边,声音的动态、交杂和不可预测性为聆听带来了巨大的挑战。普通的放大方式已无法支持听损患者的大脑对环境变化实现动态感知,或对重要的声音信号实现准确判断。
因此当环境变得复杂时,大脑的聆听难度加大,将更依赖于助听器能否对环境中的各种声音进行更加准确的分析与处理,来为大脑提供高质量的声音信号。
嘈杂环境的特点就是声音复杂多变,不断移动。助听器如何更好地区分出不同的声音?如何更好地捕捉语音信息?
答案是:只有当它从多层面学习和了解不同声音的特征才能实现。
Own助听器基于奥迪康当前的Polaris平台。与传统助听器不同,Own是具有深度神经网络人工智能算法(DNN)的定制式助听器,该算法模型不仅可以模仿人类大脑的学习方式对各种声音特征进行自主学习,并且经过了大量真实声音场景的学习和训练,已能够更聪明地对各种复杂环境的声音信号进行准确识别与处理。
广泛学习:Own的深度神经网络人工智能技术(DNN),经过1200万声音场景学习,能够识别海量声音及其细节。
数据训练:在开发过程中,通过大量复杂的真实声音场景,训练其在不同声音之间创建对比和平衡的能力,使它在不同环境下皆能还原完整、清晰、平衡的声音画面。
准确识别:根据自主学习与开发训练获得的成熟经验来识别处理不同声音,帮助用户在不同聆听环境下更容易区分声音和抓住语音。
当真实清晰的声音画面
以恰到好处的比例
还原到用户耳中时
大脑能更容易地识别出各种不同的声音
明白周围发生了什么
使得在噪声中捕捉语音
及提高清晰度变得更简单
对如此多种声音进行学习与特征提取,是一个复杂与庞大的工程,而许多人工智能算法更依赖于人工的干预、硬性参数设定来学习,用于声音学习容易存在缺漏与片面的情况。深度神经网络 (DNN)不仅可以根据模型和大量的数据训练来进行自我学习,而且非常擅长处理庞大、复杂的数据集。
深度自主探索:DNN是深度学习算法的一种,是由3层以上的神经网络组成,相比于其他人工智能,它可自主从多个层面掌握不同声音数据的复杂特征。
精细特征解析:DNN擅长处理庞大、复杂的数据集,这使它可以完成对大量声音特征的提取,并将大部分的声音特征提取为部分自动化。
智能优化反馈:DNN接受结果反馈,只需告知其结果,便可对分析过程进行改进,对声音数据做出有理有据的判断。
奥迪康Own的深度神经网络
不仅仅是标准的人工智能软件
更是专为实时生活场景打造的
现代化助听器解决方案