这个听障人竟然是清华博士!还用AI赋能信息无障碍

  •  
  • 浏览次数: 355
  •  
  • 发表时间:2019-05-30
  • 来源:网络
  • 字体大小:[ ]

  中国聋人网讯 今天小编跟朋友们介绍一位听障人如何成为清华博士的励志创业故事,他叫姚登峰,来自湖北天门,一岁时因为感冒发烧导致双耳失聪,从此坠入了一篇静寂的无声世界。但在这种逆境中他不但没有沉沦,反而相继获得了北大硕士和清华博士学位,现任北京联合大学副教授、博士生导师,并于去年12月,和两位清华博士一起创业。

  当时医生的判断是训练没有效果,但他的母亲没有放弃,日复一日对他进行听语康复训练。没有助听器,母亲就在他耳边大声“喊话”,彼此摸着对方的喉咙感觉声音的震动来发音,渐渐登峰学会说话和交流。上学后,他无法听到老师讲课的完整信息,自己就通过大量的阅读和自学来弥补,以顽强的毅力克服了求学中的种种困难和阻碍,他的成绩可以考入重点大学,却因听力残疾被拒录,几经周折被录取到一所二本大学。“生气不如争气”!姚登峰越是面对挫折就越能激发自己的斗志,更加努力的证明自己不会任何人差!功夫不负有心人,2003年他通过全国统考,以专业第一名的成绩考上了北京大学研究生。也正是在北大读研期间,他第一次接触到信息无障碍。“大部分人认为信息障碍只存在于残障人士之间,其实健全人也会有老的时候,也会有听不到声音、看不到东西的时候,也会有特殊场景下遇到信息障碍的时候。信息无障碍是全人类的事情”。
  他在信息无障碍领域做了大量开创性的工作,也发现了手语背后计算领域的一片空白地带,为此他2012年考入清华大学在职攻读博士学位,期间,在数以万计的代码编写和实验论证之后,2016年姚登峰团队在国际上首次提出手语计算的认知架构,一举解决了手语计算困扰多年的底层像素特征与逻辑语义输出的断层,汇合手势分词实验的数据宝库,手语计算的理论、技术与认知支撑首次形成了完整闭环。毕业后他在手语计算的基础上,开始尝试破解行为语言的深层奥秘,由于两者本身在面部、手势、肢体的聚合感知上架构相通,再加上团队伙伴不懈地探索和研究,仅仅两年便在这一领域取得了突破性进展,2017年姚登峰被推荐为北京市卓越青年科学家。
  行为语言是从运算智能到达感知智能、认知智能重要的途径,基于动态影像的行为识别是AI的最前沿领域,全球科技巨头都在积极寻找刚需解决方案。阿布都克力木、哈里旦木两位博士和姚登峰是从事小语种计算研究的清华同学,他们常常在一起讨论前沿科技,在一次次探讨中敏锐地认识到,如果对人类行为语言进行全方位无感识别与计算输出,机器智能便能理解各种行为语义并做出善解人意的反馈。这将是由传统运算智能上升至感知智能和认知智能的重要核心,并可以延伸出更多跨行业有价值的产品和服务。2018年,姚登峰团队在湖北进行了智能领域的无人驾驶无感识别的实验,通过一周的数据采集,该技术在0~100米范围内可以准确在人群中识别出交警,识别率达到95%;在识别交警准确的8套手势时,识别率达到90%。这证明该技术已达商用标准,他们顺利拿到了国家知识产权证书。
  团队在市场调查中得知很多场景、场合都需要应用行为语言计算,比如在照顾老人时,识别出老人是否摔倒;在跑步、游泳等体育运动时,识别动作是否标准;在炼油厂等敏感区域,识别出抽烟、没有戴安全帽等不安全行为……各行业的需求对接让团队意识到行为语言计算技术确实可以帮助很多人,使大家增添了开发贴近市场需求产品的紧迫感。国内团队多在语音识别、图像识别、可穿戴设备识别方面下功夫,但是在行为语言计算方向上,姚登峰认为,未来世界行为语言计算是不需要任何设备的,识别是无感的,希望用超前的无感识别技术改变人类的生活,让技术尽快转化为应用产品。
  5月25日,在清华大学校长杯创新挑战赛中,行语科技脱颖而出,获得由众多顶级投资人和专家评出的企业创新奖。据了解,目前行语科技的团队有10多人,已与国内一线科创平台签署战略合作,落地智慧监狱和工业场景,同时在南京、杭州等地都有项目落地。
  来源:中青在线


版权声明:中国聋人网原创内容,转载请注明出处;非原创内容来源于网络,仅作为帮助听障网友了解资讯之用,若不同意发布,请及时与我们联系,我们会尽快处理,谢谢!


相关关键字: