人机大战尘埃落定 AI黑箱之惑犹待解决

来源:中国智能制造网

点击:939

A+ A-

所属频道:新闻中心

关键词:人机大战 人工智能 AI

    备受关注的“人机大战”——柯洁VSAlphaGo2.0已经结束了,但人工智能的黑箱之惑还没有得到有效解决。某种程度上,人们对于AI黑箱问题的探索十分类似于人类对于自身大脑运作机制的探索。我们可以本能地相信大脑做出的决定,但是我们能不假思索地信任AI的判断吗?

    备受关注的“人机大战”——柯洁VSAlphaGo2.0已经结束将近十天了,人们对这场历史性对决的讨论仍在继续。面对人工智能3比0完胜人类的比赛结果,有些人提出了这样的观点:这场比赛无论哪一方获胜,其实都是人类的胜利,因为人工智能也是人类的发明创造。这一说法当然有其合理性,但是在人工智能黑箱问题尚未得到解决的今天,这说法还是无可避免地带着一丝自我安慰的色彩。

    困扰学界多年的AI黑箱之惑

    人工智能黑箱问题并不是在近几年围棋程序屡胜人类之后才浮出水面,事实上,它已经困扰学界多年了。

    美国卡内基梅隆大学机器人学兼职教师的Pomerleau早在26年前就开始了对黑箱问题的研究,那时他还是卡内基梅隆大学机器人技术研究生。他在悍马里安装了一台编程过的计算机,可以通过摄像机记录的信息解读路况,并储存他对各种路况作出的反应。Pomerleau希望这台机器能够获得更多关联独立控制驾驶。每一次的实验中,Pomerleau都会运行系统几分钟,然后让汽车自行驾驶,一切都很顺利。但是,有一次悍马靠近一座桥时突然向一边急转弯。Pomerleau赶紧抓住方向盘才得以避免这场车祸。经过分析,Pomerleau弄清了原因:复杂如神经网络般的电脑程序一直把长满草的路边当向导,所以突然出现的大桥迷惑了它。而二十六年之后的今天,人工智能应用愈加发达和普遍,黑箱问题的破解难度也增加了许多,紧迫性也日益凸显。

    学界目前对AI黑箱问题的几个解决办法

    AI黑箱问题这么多年都没有解决,是不是意味着人类对其束手无策呢?也不尽然。目前,学界已经提出了几种解决办法。

    创业公司OptimizingMind发明了一项能观察智能机器决策过程的技术。该算法的目的是创造“透明访问”系统以呈现机器学习是如何做出预期的。该系统以人脑的神经模型为基础,能把任何深度网络转化为该系统的模式。其目的是探索人工智能行为的潜在预期,并且找出人工智能思维模式的哪个方面对决策影响最大。它可以为工程师大幅减少机器开发的时间,帮企业节省资源。

    斯坦福大学的科学家则开发了一种神经网络错误检查工具Reluplex。这个新工具的用户可以询问应用了这个神经网络的系统,有关其属性的具体问题。但是它仍然无法测试有数百万个节点的网络。而Reluplex本身仍然需要独立验证。尽管如此,研究人员预期会有许多可能的用途。

    某种程度上,人们对于AI黑箱问题的探索十分类似于人类对于自身大脑运作机制的探索,这大概是由于人类在开发人工智能时借鉴和模拟了人类的大脑和神经系统。目前这两个领域对各自的研究对象都还是知之甚少。我们不甚了解自己的大脑是如何运作的,但我们本能地相信它。同样地,我们也不甚了解AI是如何做出各种决定的,但是我们能不假思索地相信它吗(虽然大多数时候这些决定是合理的)?恐怕很难。因此,在大规模开发和利用人工智能之前,黑箱之惑是个需要尽早攻克的难题。这一问题得不到有效解决,AI普及推广之路上的疑云便会持久存在。


    (审核编辑: 智汇张瑜)