7月11日,我在短文“现代人工智能走在仿生学的大道上”中提出关于现代人工智能的仿生学研究方向,是一句大实话。为什么?
大家知道,在上世纪60-70年代,加拿大神经生理学专家David Hubel(1926-2013) 以实验为基础,搞清楚了人类大脑视觉系统对外界刺激信号的反应机制,揭示了大脑神经皮层的多层次结构,奠定了现代人工智能的仿生学基础。
在计算机科学发展历史中,语音识别(SR)是个难题,科学家绞尽脑汁,几乎什么方法都用了,还是不见成效。人的听觉神经系统是不是具有多层次结构特征?如果听觉系统的神经元对外界刺激信号的反应顺序有先后,那么,使用人工神经网络进行“仿真”是一条可行的道路。
废话少说。2011年秋季,在意大利佛罗伦萨召开的国际语音识别大会(Interspeech)上,微软发表了对语音识别深度神经网络建模的重大改进:协同发音(Coarticulation)建模,减低语音识别错误率,当场演示了”同声传译“,效果极佳。
2014年,微软推出了语音助手”小娜“(Cortana),并且将其捆绑到Win 10操作系统之中。2015年7月29日,中国广大计算机用户即可直接体验微软的语音识别新技术了。
至此,机器有了耳朵(ear)也有了眼睛(eye),人类不再孤独。实际上,机器什么”智慧“也没有,只是人类的一种驯服工具而已。
注:2011年世界语音识别大会(InterSpeech),会议文集刊有近2,000篇论文,足见其规模之大,影响甚远。
时间:2015-07-17 00:05
来源:袁萌
原文链接