这种新型传感器系统可将手语动作翻译成文字

  美国标准手语(ASL)是聋哑人和听障人彼此交流的主要方式,但如果有一方无法理解这种基于视觉的语言,那交流又该如何进行呢?德克萨斯A&M大学的研究者现在就打算解决这个问题。据介绍, A&M大学生物医学工程系助理教授兼首席研究员Roozbeh Jafari目前正在研发一种新的精密工具,来让所有人都可以去理解ASL。

  

物联网

 

  这套翻译系统目前还没有正式名称,但它的目标非常明确:为所有对话参与者提供一种更加精确、便携和可靠的方式来翻译ASL。

  这套系统可将追踪到的视觉动作翻译成文字,但问题在于,它所使用的摄像头只能检测到足够精准的ASL手势,否则就会引发翻译错误,最终让交流无法顺利进行。

  因此,Jafari放弃了摄像头,转而使用了外置动作传感器和可穿戴肌肉追踪传感器,这些传感器是基于肌动电流图(EMG)技术所研发的,可检测到运动神经元传输到肌肉的电信号,而EMG可以把这些信号转化成计算机和专业人士可以理解的数值。

  目前,Jafari的团队已经制作出了可正常工作的概念验证原型机,下一步他们打算提高设备的敏感度和准确度。当所有的技术达到理想的工作状态时,ASL用户和他们的对话参与者将能从中获益良多。

  可除此之外,Jafari的这套传感器系统还拥有更广阔的应用空间,比如智能家居设备的控制。