您当前的位置:科技纵横网要闻正文

为什么说现在的AI还不如一个婴儿

放大字体  缩小字体 时间:2020-01-08 17:39:39  阅读:4268+ 作者:责任编辑NO。姜敏0568

文章来自“科学大院”公众号

作者:柴凯轩

“人工智能(Artificial Intelligence,AI)”大概是近年来最火的概念之一了。

在有些人眼里,人工智能已经比较成熟,毕竟柯洁都被“阿尔法狗”打败了,无人超市、智能点餐、AI写稿都在出现,可能一觉醒来我们的工作就要被AI取代了。

但在另一些人眼里,家里的智能音箱会莫名其妙地搭茬,图像识别能被轻易干扰,无人驾驶汽车也是事故频出……人工智能最多算是个“人工智障”吧。

那么,人工智能将来会怎么发展呢?有人提出,人工智能要像婴幼儿一样。

AI的局限在哪儿?学习能力

自上世纪中叶开始,科学家曾设想能否把知识直接塞进电脑,建造一种真正意义上的“人工智能”。一旦实现,这种人工的智能将与人类具有的自然智能相媲美,甚至强于任何人类“最强大脑”。科学家将这种强大的人工智能称为“人工广义智能”(或称强AI),例如《终结者》中的“天网”系统,《黑客帝国》中的“矩阵”框架,以及《复仇者联盟》中的“奥创”等。

与之相对的,我们日常生活中的各种狭义的人工智能,如语音助手,基于图片的网络搜索引擎,无人驾驶汽车系统等,即所谓的弱AI。相较之下,弱AI所能处理的问题比较死板、缺乏创造性,并且时常出错。而在设想中,强AI不但可以弥补弱AI的不足,它们还可以自主地学习知识、创造知识。

“天网”“矩阵”与“奥创”(图片来自:谷歌)

但是,所谓的强AI至今还没再次出现。

现如今,计算机学家运用“机器学习”(machine learning)算法,仅能使计算机自行对输入信息做出反应。比如给AI观看大量附有类别标记的动物图片,虽然算法不明白动物的概念,但它们可以依据视觉模式的统计特征,将新的图片进行归类,“认出”不同的动物。计算机学家还结合了强化学习方法,使AI可以精通对抗性活动,如打游戏、下棋等。同样,算法不需要理解下棋策略本身意味着什么,它们只需要不断增大行动后获得的分数,便可达到赢棋的目的。

然而,这些基于机器学习算法的AI存在两个不足:

用机器学习算法识别猫咪(图片来自:谷歌)

第一,学习成效受制于训练数据的数量与质量。一方面,基于机器学习算法的AI依赖大量的训练与强化,通过反复矫正预测模型中各个参数的权重,从而归纳出最优的统计模式。另一方面,这种学习过程离不开“监管者”(supervisor)的参与。“监管者”首先要筛选出清晰的图片,并提供类别标记,然后再让算法对这些优质的数据进行训练。再比如学习下围棋之前,“监管者”会事先筛选出高水平对局作为训练数据,以免算法无厘头地穷尽所有落子可能。因此,寻找训练材料,筛选优质材料,最后标注材料类别,这些工作对目前AI的成败非常关键。机器学习算法的前期工作量之大,着实令人生畏。

游戏《Breakout》截图(图片来自:维基百科)

第二,学习效果僵化,无法进行迁移。因为过于依赖“监管者”,当前AI只能出色地完成某一特定任务,如果对训练问题进行小小地改动,那它们就需要从头再学一遍。比如训练AI学习一款名为《Breakout》的游戏,其规则很简单:玩家要拖动屏幕底部的滑块,通过反弹小球来消除屏幕顶部的砖块。AI在“摸索”几百盘之后就能达到顶级人类玩家的水平。但如果此时稍稍改动下游戏场景,比如把底部的滑块上移一排,或者增加几个无法消除的砖块,那么AI就要重新学上几百盘。但对于人类顶级玩家来说,这简直是小菜一碟。原因就在于,人类玩家真正明白了游戏规则,而AI玩家只是一堆算法的集合体。

所以,AI并不能弄清问题的实质,它们只是能熟练地处理问题而已,甚至有时还会被“对抗样例”(adversarial examples)轻易地愚弄。比如,如果一堆混乱的像素点符合“狗”的视觉模式特征,那么图像识别系统就会误将其识别成“狗”,但人类(即便婴儿)是不会做出这样的误判。

(图片来自:谷歌)

愚弄AI的对抗样例 :右图是左图与图像噪音的叠加,AI会将左图识别为“猫”,但很容易把右图识别成“狗”(其实有时人眼也会)

不过,互联网技术的发展以及半导体工艺的改善,还是在某种程度上弥补了机器学习算法的一些局限。大量社会化媒体用户自觉地为AI提供了取之不尽的高质量训练数据,计算力强劲的芯片也确保了AI可以高效地处理如此海量的信息。但这些只是技术上补充,而非概念上的改进或变革。当前AI所表现出的低适应性仍是阻碍其进步的首要问题。前文提到的“人工广义智能”设想要求AI不过于依赖训练数据,能灵活地处理信息,自主地探索外部世界,并且能够进行举一反三地泛化学习。

等等,这听上去分明是在描述一个处于学习阶段的婴儿!

人类婴儿(图片来自:谷歌)

每个婴儿都是强大的学习者

Alan Turing(图片来自:维基百科)

“人工智能之父”Alan Turing曾坚信,要想实现“人工广义智能”,就需要建造一种“可以像儿童一样学习的机器”。事实上,婴儿是这世上最擅长学习的系统,他们学到的知识更具普遍性,所需的学习资料也更少、更凌乱。与基于机器学习算法的AI相比,婴儿学习的不同之处体现在下面几点:

首先,婴儿的学习不需要大量的示例。同样是区分不同的动物,婴儿可能只需要观看几张绘本上的动物形象,他们就可以对新的动物图片进行归类了。同时,婴儿还能将图画书上的形象与现实中的动物联系起来,表现出真正的概念获得。

其次,婴儿的学习并不依赖高质量的感官刺激。印第安纳大学的心理学家Linda Smith和斯坦福大学的心理学家Michael Frank用头戴式摄像机,记录了婴儿视角下的日常所见。与AI所学的清晰物品照片相比,婴儿眼中的世界视角混乱、成像模糊,而这并不影响婴儿学习周遭的一切。

最后,婴儿的学习不需要“监管者”的过多参与。在婴儿自由活动时,父母可能偶尔会说“干得好”,但父母更多关心的是孩子的安全。所以婴儿的学习大多是自发的、自我激励的。

一名参与头戴式摄像记录的幼儿(图片来自:alisongopnik.com)

看来,婴儿的学习方式可能与当前AI的学习方式大相径庭。如果按照机器学习算法的方式,婴儿不仅会因为训练材料的数量与质量不佳而无法学习新事物,而且更不用提举一反三的泛化学习了。那么,婴儿是怎么样做学习的?

Alison Gopnik(图片来自:维基百科)

近年来,加州大学伯克利分校的发展心理学家Alison Gopnik为人工智能研究者和爱好者介绍了许多接地气儿的婴幼儿研究,普及了发展心理学对人类学习问题的独到见解。尽管婴幼儿研究的内容听上去并不那么极客范儿,但其成果却能给人工智能研究带来意想不到的启示。

婴儿的学习方式

Gopnik教授结合自己以往研究和发展心理学领域的众多成果,提出了一套颇具婴儿特色的学习系统——MESS系统(Model-building, Exploratory, Social learning System),寓意着婴儿将要在“一团糟”的混乱世界中进行学习。这个系统刻画了婴儿学习的三个独特之处,揭示了婴儿成功的秘密,也启示了未来AI的发展趋势。

1.基于建模(model-building)的学习

婴儿学习的成功秘诀之一,是他们会构建关于世界的模型或理论,也就是说,他们具有物理学与心理学领域的常识性认识。来自哈佛大学的心理学家Elizaberth Spelke研究发现,1岁大的婴儿就已经对物体的运动规律颇有了解了:当婴儿看到小汽车悬浮在空中,或者穿墙而过时,他们会表现出惊讶,就好像他们从未见过这种车或这种墙似的。另外,婴儿们也对人们的内心活动颇有了解。来自密歇根大学的研究者Felix Warneken发现,当看到别人正从地上捡起不小心弄掉的铅笔时,1岁多的婴儿会上前捡起笔并递给对方;但如果是对方故意扔到地上的,婴儿就不会这样做了。

儿童具备一些物理学领域(左)和心理学领域(右)的基本认识(图片来自:medium.com)

2.探索式(exploratory)学习

婴儿成功的另一秘诀是,他们具有永无止境的好奇心,并且是主动的实验者。这对父母来说并不陌生,因为孩子总是敢于尝试一切。在日常录像中,研究者们发现婴儿确实在不断地探索世界:他们会把东西捡起来观察,然后再扔出去看看,把一些东西拼起来,或者把一些东西拆开。近期研究也表明,这种有趣的日常“实验”是多么的有智慧。约翰·霍普金斯大学的研究者Aimee Stahl和Lisa Feigenson发现,相比正常的玩具,1岁多的婴儿会对奇怪的玩具(比如浮在空中或穿墙而过的小汽车)表现出更多的兴趣。他们会把曾经浮空的小汽车扔出去,会用曾穿过墙的小汽车撞击桌面,似乎他们在试图弄明白,为什么这些玩具会那么奇怪。

一名对皮球产生兴趣的婴儿(图片来自:alisongopnik.com)

3.社会性(social)学习

婴儿学习的最后一个成功之处在于,他们能够进行社会学习(从他人那里学习知识)。孩子可以向周围的任何人学习,利用前几代人积累下来的各种知识。这一强大优势甩开了AI几条街。加州大学伯克利分校的Jitendra Malik是计算机视觉领域的专家,他正在研制一种模仿人类动作的机器人,即先给机器人呈现一系列人类动作,之后让机器人重现这套动作。

这项任务听上去很简单,事实却不然。比如模仿他人系绳结的动作,任何穿过运动鞋的孩子都能轻松搞定,但这可能会把机器人难倒。想象一下,如果让你模仿别人系绳结,你会在意一些无关紧要的细节吗(比如动作的角度、速度)?还是说,你会弄清楚对方每步打算做什么,然后尽可能简单、有效地达到动作的目的?甚至于,你会增加一些改进,让绳结系得更加坚固?许多研究都发现,儿童在模仿时是非常理智的,他们会依据对方的意图来决定模仿哪些细节,但机器人很难做到这些。

社会互动对学习的重要性还体现在另一方面:即便是很小的婴儿也会形成一种道德感知,这种感知来源于婴儿与看护者的互动。比如,稍大些的学步儿会表现出利他性(不惜牺牲自身利益,也要考虑他人的利益)和共情性(即便与自身无关,但对他人的处境感同身受),这表明他们很小就具备了基本的公平感和同理心。总之,学习与关爱,计算与关心,这些活动看似不相关,但对人类来说是难解难分的,因为它们构成了“人”的独特性。

没有“灵魂”的Sophia(图片来自:维基百科)

如何让AI做得像婴儿一样好?

所以,“人工智能研究”能从“婴幼儿研究”中学到什么?或者说,我们如何让AI做得像婴儿一样好?

首先,未来的AI需要像一岁半的孩子那样,对周围物理世界与社会世界的特征有基本的理解。换句话说,想让AI像人类一样具备真正的智慧,就要机器像孩子一样具有“常识”。因此,结合预设模型和机器学习算法的混合学习系统必将是AI的发展趋势,它也正是当前AI研究的前沿课题之一。

谷歌)

其次,未来的AI需要像孩子一样对外部世界抱有好奇心。这听上去很难,但值得尝试。当前的AI是被困在预先设定好的框架里的,它们被动地吸收数据、处理数据。但AI要想继续发展,它们就需要更多地跳出预设框架,自主地搜集数据,或选择训练数据。Gopnik教授与同单位的合作者、计算机科学家Deepak Pathak和Pulkit Agrawal,正试图设计一种具有好奇心的主动学习AI。以往的机器学习算法会在AI做出正确的事情时奖励它们,以强化这一行为。但好奇的AI只有在产生意外结果时才会得到强化,就像婴儿一样。这种类型的AI也是人工智能领域的一类前沿课题。

以发现新异为奖励规则的学习系统(图片来自:谷歌)

最后,未来的AI需要像人类一样,得有些“人”味儿。自AI的概念产生开始,人们就没有停止过思考其与人类关系的问题:比如,如果不解决相关的伦理学问题,AI会不会是人类文明的终点?在Gopnik教授看来,构造AI就好比抚养孩子,意味着创造者要给自己的“创造物”赋予一些不那么极客范儿的美德。可以预见,这也将会是一个不错的未来研究方向。

电影《机械姬》中拥有“灵魂”的Ava(图片来自:谷歌)

结语

人工智能被认为是“第四次工业革命”的核心技术之一,也是目前各国科技竞争的焦点。2018年,美国国防高级研究计划局(DARPA)启动了一系列关于人工智能的研究项目,其中一项有趣的选题是研发“机器常识”(Machine Common Sense,MCS),希望从发展心理学研究的成果中寻找启示,力图给AI赋予一些人类的基本认识,以强化其自主学习和解决问题的能力,使其可以像人类一样具备真正的智慧。通过本文的介绍,人们不难理解“人工智能研究”与“婴幼儿研究”,这看似相差十万八千里的两个领域竟有可能交汇起来。

虽然人类离真正意义上的智慧机器还差得很远,不过没关系,我们不一定非要让AI复制出人类的智慧,我们更希望AI能够在一定程度上帮助人类变得更聪明。为了建造更有用的AI,比如好奇型AI或模仿机器人,最好的办法还是多从我们的婴儿身上寻找线索吧。也许,发展心理学研究可以使人工智能研究的“春天”得以延续,而人工智能研究兴许也能让发展心理学研究走出“寒冬” 。

参考资料:

https:///articles/the-ultimate-learning-machines-11570806023

https:///story/how-to-teach-artificial-intelligence-common-sense/

作者为中国科学院心理研究所19届硕士毕业生

科学大院是中科院官方科普微平台,由中科院科学传播局主办、中国科普博览团队运营,致力于最新科研成果的深度解读、社会热点事件的科学发声。

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!