未来热门职业:给机器人看病的心理医生
随着人工智能的日趋复杂和普及,它的影响力也越来越大。有人建议,在自动驾驶汽车发生不可避免的碰撞时,应由人工智能判断哪个司机的存活几率最大。图为处于自动驾驶模式的优步车辆。知道人工智能什么时候会有意外之举,这一点很重要。 图片来源:ERIC RISBERG/ASSOCIATED PRESS
人工智能工程师现在面临一个问题:他们常常不知道自己研发出来的那个玩意儿在想什么。
随着人工智能日趋复杂和普及,它的影响力也越来越大。在判定谁该入狱,谁能获得贷款方面,人工智能都已经开始施展拳脚。有人建议,在一辆自动驾驶汽车发生不可避免的车祸时,应由人工智能判断哪个人的存活几率最大。
初创企业现在无论做什么,都喜欢给自己贴上人工智能的标签。蹭人工智能名头的方式越来越狡猾,请务必谨慎定义。一般来说,人们普遍认为人工智能指的是模仿人类智慧和能力的科技。
人工智能领域中发展尤为神勇的一个分支是神经网络,该系统可像人类那样通过训练来“学习”,把学习经验转变为模拟神经元网络。最终生成的不是代码,而是晦涩难辨、纷乱复杂的数百万、甚至数十亿个人工神经元。这也解释了创造现代人工智能的科学家何以对人工智能完成任务的方式表示费解。
大多数研究人员一致认为,了解人工智能是一项迫在眉睫的挑战。如果我们不理解人工智能的工作方式,那我们如何确定它是否带有偏见,又如何预测它可能出现的错误?
人工智能会不会是种族主义者?它会不会有一些意想不到的“脑回路”,引发自动驾驶车辆失灵,造成车祸?这些我们都无法提前预知。只有在它做出了无数个决定后,我们才可能了解到它是否有偏见。知道人工智能何时会失灵,何时会有意外之举,何时会告诉我们:“对不起,戴维,恐怕我办不到”,这一点非常重要。
曾在图片社交网站Pinterest Inc.研究机器学习的软件工程师Tracy Chou说:“现在的一大问题是,人们以为人工智能或机器学习不带偏见,十分中立。之所以有这个印象,很重要的一个原因是,大家没有认识到,设计人工智能模式的是人,给它们选择训练数据的也是人。”
谷歌翻译(Google Translate)便是一例。比如,让它将英文单词“doctor”(医生)译成葡萄牙语,它给出的总是阳性名词medico,而不是阴性名词medica。让它翻“nurse”(护士),它给出的则是阴性名词enfermeira,而不是阳性名词enfermeiro。
阴谋吗?非也。用本身就带有偏见的文学库来训练翻译系统,后者自然一脉相承地也有了偏见。若研究人员删除种族这个类别,数据一样带有偏见,因为还有其他与种族关系密切的数据(比如一个人在哪里生活),那些数据就成了种族的代名词。
机器人毕竟不是人,我们不能直接问一个机器人,你为什么要做这件事?不错,人工智能可以出色地完成一些片面任务,而实际上,即便是那些会说话的机器人,其自我反思能力跟一只蟑螂差不了多少。
这是个很难攻克的课题,美国国防高等研究计划署(Defense Advanced Research Projects Agency,简称:Darpa)正在为“可解释人工智能”项目提供资金支持。
下面说说这个课题为何难以被攻克。在计算机科学领域,要想解决某个问题,有个好办法是让工程师编写一个神经网络(相当于原脑),然后给它灌输海量数据来训练它。举例来说,只要人工智能有足够的时间去消化一堆贴有“猫”标签的图像,那它就可以挑出猫的照片。
难点在于,神经网络是通过内在的“自我改造”完成学习任务的。人脑基本上也是这样工作的。就像我们无法理解人脑中约860亿个神经元之间的相互连接一样,人工智能“思考”的具体方式亦令我们费解。
工程师将上述情况称为“可解释性”问题(也就是尚无法解释),把神经网络称为“黑匣子”(我们可以模拟和观察、但无法了解其内部的东西。)
Alphabet Inc.子公司DeepMind Technologies Ltd.的研究人员宣布了一个探索机器心智的独辟蹊径之道:像对待孩子一样对待机器。
也就是说,工程师对人工智能使用认知心理学技术,这并不是比喻。参与这个项目的DeepMind的科学家巴雷特(David Barrett)说,为了梳理人工智能的所思所想,DeepMind团队对人工智能用的测试题和材料与心理学家对儿童用的一模一样。
巴雷特说,几十年来通过认知科学解开人脑之谜的研究如今应用到了机器上,有可能打开一扇认识人工智能的新大门,让人工智能变得更易懂。
DeepMind的研究结果之一是让我们知道了,至少有一种人工智能(用来认字的“一次性学习模式”,那些字只给它看一眼)用的是和人类一样的解决问题的方式,真是令人吃惊。它也是通过形状来识别物体,哪怕没人教它这么做,哪怕识别随机物体还可以通过颜色、质地或动作等其他方式。以前它的学习方式不为人知。
理解只是我们与人工智能互动的第一步。机器人心理学的另一半可被形容为“心理治疗”,也就是说,改变它的想法。
巴雷特说,工程师在创造人工智能时,为了找到最棒的那个,一般会做出很多版本,而使用认知心理学能让工程师拥有更多“实权”,可以选择那些按照人类希望的方式去“思考”的机器。又或许,人工智能的思考方式与我们不同,而且更好,这样我们就可以学点解决问题的新办法。
结果就是,当我们用人工智能替代人类决策者时,人工智能有更上一层楼的潜力,变得更少出错,更加可靠,因为人工智能的行为是可衡量的,我们或许可以精确追溯它们做决定的整个过程。
对于人类的行为,我们一直也是这么要求的(如在法庭上剖析一个商业决定),但众所周知,人类是不可靠的叙述者。有了机器人后,我们终于迎来了刚正不阿的决策者,它们的所有偏见和一闪而过的冲动都可以被仔细审视和修正。