智能
三星手机上没人用的眼球控制功能,现在拿来做鼠标了
让你看哪里,就点哪里。
电影《潜水钟与蝴蝶》的主角全身瘫痪,只能通过眨眼与人交流,记录着按顺序念出法语字母表,鲍比通过眨眼选择需要的字母,写出了一本回忆录。
现在,三星推出了一款用眼球控制的“鼠标” EYECAN+,也许可以令这样的写作快一些。
实际上,这是一个装在显示器下方的传感器盒子,可以识别使用者的眼部活动,从而模拟鼠标的点击、选取、复制、输入、放大等动作,令不方便使用键盘和鼠标的残障人士可以通过眼部的运动操作电脑。
首次使用时,用户需要进行眼球校准,系统会自动记录这名使用者的眼部特征。除了需要用户保持在离显示器 60-70 厘米的距离之外,EYECAN+ 对使用者的姿势并不做特殊要求。在使用中,用户也可以根据需要调整 EYECAN+的敏感度,以减少误操作。
眼球校准完成后,显示器上会弹出 EYECAN+ 互动界面,有矩形和浮动轮两种选择,各自包含 18 种基本操作命令。如果需要,这条菜单可以在显示画面中被置顶。这 18 种操作命令包括眼球的活动和眨眼,要切换操作,用户需要直视相关的按钮并眨一下眼。基本操作之外的动作,也可以通过现有的击键动作自行设定,比如说“关闭程序”(Alt+F4),“打印”(Ctrl+P)
这并不是三星首次开发出眼部控制技术。
此前,在智能手机 Galaxy S4 中,三星就内置了眼球控制功能 Smart Scroll,手机的前置摄像头可以识别用户的视网膜运动,当用户不看手机的时候,正在播放的视频就会暂停,此外,用户也可以用眼部运动实现手机页面的下拉。
在普通的手机市场,这一技术并不实用,尽管三星曾以这一技术作为 S4 的卖点,但是用户实际的使用率却不高。这次三星并不准备将这款设备制作成商业产品,而是会将限量生产的产品捐献给慈善组织。
2012 年 3 月,三星推出了第一代眼部控制“鼠标” EYECAN,用户需要佩戴特别制作的眼镜以抓取眼部动作。EYECAN+在那基础之上,提升了识别的精确度,也不再需要佩戴额外设备。这一系列产品是三星工程师与延世大学计算机科学系毕业生 Hyung-Jin Shin 合作的成果。
上图侧卧着的演示者就是 Hyung-Jin Shin,天生四肢瘫痪,他在 2011-2012 年之间就参与了第一代产品的开发,这次他与三星的工程师一起工作了 17 个月,以优化使用体验。
此外,EYECAN+的技术和设计都将开放给开发者,令感兴趣的公司或者组织将其商业化。EYECAN 的团队希望这一技术能够帮助渐冻人症(ALS)和闭锁综合征(LIS)的患者,令他们能够像正常人一样浏览网页、用电脑写作甚至是玩电子游戏。
题图来自 Samsung Tomorrow
原文链接 (已下线): https://www.qdaily.com/articles/3881.html
Wayback 快照: http://web.archive.org/web/20190623153209/https://www.qdaily.com/articles/3881.html
原始截图: http://ww3.sinaimg.cn/large/007d5XDply1g3vdim3m6uj30u0348e81