冯莹 2009年12月09日 星期三 22:27 | 0条评论
让电脑能够看见你我看见的世界?若单纯就只是看见,那并不难,相机拿起来卡嚓一下就搞定。但是要让电脑能够理解自己看到了什么,那就有点意思了。
这群来自
哈佛
以及
麻省理工学院( MIT )
共同组成研究团队,打算用电脑来仿真大脑的功能,透过运算将电脑看见的影像转换成有用的信息,进而可以辨识物品、
认人
、甚至理解一连串的动作所代表的意思,就和人脑一样。
为了加快研究速度,研究人员借用分子生物学的筛选技术:同时对上千种候选辨识模块进行一连串的实验,淘汰掉不适用的模块,最后保留下最棒的模块。这过程简单来说就是八个字:「物竞天择,适者生存」。
不过研究人员的另一个难题则是人脑解析信息的速度实在太快,若用传统电脑得先花上一大笔钱再加上至少一整年的时间才能运算完毕。不过这个问题随着游戏用的
GPU
拥有越来越强的运算能力而获得解决。研究人员大量运用 GPU 的运算能力,不仅省下大笔的经费,更将运算的时间从一年缩减到一个星期。
正如前面所说的,研究团队希望藉由这项研究能够创造出仿真大脑视觉辨识的人工智能( 好让 iPhoto、Picasa 的人脸辨识更加准确? ),而随着他们将软件开发的越完善,越接近大脑辨识的结果时,我们就可以反过来更加了解大脑的运作模式。而不断互相求进步的结果,最终我们就可以更了解大脑,同时也能让电脑运作的更像大脑。
Zeuux © 2024
京ICP备05028076号
暂时没有评论