阅读:0
听报道
编者按
2018年12月18日,欧盟人工智能高级别专家组(AI HLEG)正式向社会发布了一份人工智能道德准则草案(DRAFT ETHICS GUIDELINES FOR TRUSTWORTHY AI)。在许多人担忧人工智能取代人类、破坏伦理的大背景下,该草案旨在指导人们制造一种“可信赖的人工智能”。那么,如何才能让机器人更令人信赖?可否赋予它们道德修养呢?
就此话题,我们采访了美国匹兹堡大学科学哲学和科学史系杰出教授、西安交通大学长江讲座教授科林·艾伦(Colin Allen)。艾伦长期致力于哲学与计算交叉领域,曾获得美国哲学学会颁发的巴韦斯终身成就奖。在与耶鲁大学教授温德尔·瓦拉赫合著的《道德机器:如何让机器人明辨是非》一书中,艾伦认为:尽管完备的机器道德智能体(AMAs)还很遥远,但是目前仍有必要,而且有可能开始建构一种功能性道德,从而使人工道德智能体具有基本的道德敏感性。
今天,让我们一起来看看艾伦对人工智能与道德问题的理解。
采访 | 王小红(西安交通大学计算哲学实验室中方主任)
翻译 | 杨冰洁、高元昊
译校 | 王小红
责编 | 惠家明
1. 什么是人工智能的“道德”?
艾伦:人工智能的“道德”,或者说,“道德机器”(moral machine)、“机器道德”(machine morality),有很多不同的含义。在此,我将这些含义归为三大类。在第一种含义中,机器应具有与人类完全相同的道德能力。第二种含义中,机器不用完全具备人类的能力,但它们对道德相关的事实应该具有敏感性,并且能依据事实进行自主决策。第三种含义则是说,机器设计者会在最低层面上考虑机器的道德,但是并没有赋予机器人关注道德事实并做出决策的能力。
就目前而言,第一种含义所设想的机器仍是一个科学幻想,我们并不知道应该如何实现它。所以,我在《道德机器》一书中略过了对它的探讨,而更有兴趣探讨那些介乎第二、第三种意义之间的机器。当下,我们希望设计者在设计机器人时能够考虑道德因素。这是因为,在没有人类直接监督的情况下,机器人可能将在公共领域承担越来越多的工作。这是我们第一次创造可以无监督地运行的机器,这也是人工智能伦理问题与以往一些科技伦理问题之间最本质的区别。在这样的“无监督”情境中,我们希望机器能够做出更道德的决策,希望对机器的设计不仅仅要着眼于安全性,更要关注人类在乎的价值问题。
科林·艾伦
来源:http://www.pitt.edu/~pittcntr/Being_here/photo_album/2014-15_albums/09-19-14_allen/DSC01601.JPG
2. 如何让人工智能具有道德呢?
艾伦:首先要说的是,人类自己还不是完全道德的,将一个人培养成有道德的人可不是一件容易的事。我们人类的本质都是出于利己主义做事,而不考虑他人的需求和利益。然而,一个道德的智能体必须学会克制自己的欲望以方便他人。但我们现在构建的机器人,其实并不具有自己的欲望,也没有自己的动机,因为它们没有自私的利益。所以,训练人工智能和训练人的道德是有很大差异的。对机器的训练问题在于,我们怎样才能赋予机器一种能力,让它敏感地察觉到那些对人类的道德价值观而言是重要的事情。此外还有一个问题,机器需要认识到它的行为是否会对人类造成痛苦吗?我认为是需要的。我们可以考虑通过编程使机器按照这种方式行事,且无需考虑怎么让机器人优先考虑他者利益,毕竟目前的机器还不拥有利己的本能。
3. 发展人工智能的道德应采用怎样的发展模式?
艾伦:我们曾在《道德机器》中讨论了机器道德发展模式,我们认为,“自上而下”和“自下而上”相混合的模式是这一问题的最佳答案。首先,我想来谈一谈“自上而下”和“自下而上”意味着什么。我们以两种不同的方式使用着这两个术语。一个是工程的视角,也就是一些技术和计算机科学的视角,例如机器学习和人工进化(artificial evolution),而另一个则是伦理学视角。机器学习和人工进化并不从任何原则开始,它们只是试图使机器符合特定类型的行为描述,并且在给定输入使机器以这种方式行事时,它的行为能够符合特定类型,这叫“自下而上”。与之相比,自上而下的方法则意味着一个清晰的、将规则赋予决策过程的模式,并且试图写出规则来指导机器学习。我们可以说,在工程领域中,自下向上是从数据当中学习经验,而自上向下则是用确定的规则进行预编程。
在一些伦理学领域也有这种“上下之别”,比如康德,还有更早些时候的功利主义学派,如边沁和密尔,他们就更像是“自上而下”。这些学者试图制定规则以及普遍原则,以便通过这些“条条框框”判断出一个行为是不是道德的。这样对康德的道德律令而言,其涵义就包含着多项具体规则,例如“不撒谎”。
但是在西方传统中,亚里士多德对于道德持有相当不同的观点。他认为,道德应当是一个人通过训练而习得的。因此,亚里士多德的观点就更倾向于一种自下向上的方法,这种方法就是一个人通过练习变得好、善良、勇敢。当践行道德的时候,我们就称之为美德伦理。通过这样做,一个人会变得更具美德、会有更好的行为。
若问人类是怎样做的,我还是认为,亚里士多德的看法更正确。因为我们人类并不是靠“瞎碰瞎撞”去养成习惯的,我们也会对习惯进行思考,并且思考我们是否需要那些原则。亚里士多德注意到,在原则灌输和习惯训练之间存在着一种相互作用。我们认为,这种途径同样也适用于人工道德智能体的构建。在很多实时决策的情境下,我们并没有足够的时间来反思行为背后的理论或原则含义。但是,我们还可以从错误中学习,因为我们可以使用这些自上向下的原则重新评估我们所做的事情,之后再进行调整和重新训练以便在下一次做得更好。
这就是混合方法的基本思路,我认为它确实符合人类的情形。举个例子,当你还是个孩童时,你对兄弟姐妹做了什么不好的事情,父母会说“如果这种事情发生在你身上,你会有何感受呢”,是吧?在许多道德传统中都有这样一种原则:“以你自己对待自己的方式,或是你希望被别人对待的方式去对待他人”,有时人们也称这一原则为黄金法则。所以,你不仅仅被告知不要那样做,也并不仅仅因此而受罚,实际上你会被告知去思考这样做为何是好的或不好的,这就是“自上而下”与“自下而上”的结合。
4. 我们应该限制人工智能的发展吗?
艾伦:我认为,这取决于其应用的领域。我现在并不担心机器人或人工智能会取代人类,我也不认为人类正处在这一危险的边缘。如果情况变得危险,我们是有能力去阻止它的。比如说,如果我们突然间看到机器人可以开始生产机器人,我们所需要做的无非就是切断电源。
当然,如果我们能办到的话,确实存在一些应当停止人工智能应用的地方,其中一个就是人们正致力开发的军事领域。我们应当拥有人工智能武器吗?我认为这是应该极力避免的,并且我在各种方面都对此持悲观态度。因为从人类的历史来看,一旦有人构想出一个武器,那将很难阻止另一些人的欲望及其为之奋斗的野心。在这方面,核武器和无人机就是很好的例子。所以,人工智能武器时代或许真的将要来临,但如果我们能阻止它的话,我会对此十分支持。
但是,我不认为我们应该阻止其他形式的人工智能发展。我们需要思考技术对生活带来了怎样的后果,比如说,自动驾驶汽车会使行人过马路更困难,还是更加容易呢?自动驾驶汽车面临行人过马路的情形时应附加什么样的权限呢?无人车看到行人能不能安全停下,还是说它像人类司机一样,依然有可能撞到行人?这些都是我们需要对人工智能进行思考的问题。不过话说回来,我觉得无人驾驶汽车不该停止发展,反而应该投入更多。
5. 机器人会变得更好还是更危险?
艾伦:过去十年来,人工智能在某些方面的飞速发展是有点令人吃惊,但仍然算不上满意。在我看来,未来的十年内,无人驾驶汽车投放到真实路况中的可能性不大。我也非常惊讶,苹果公司推出了一个可以交谈的智能体Siri——苹果公司也是第一个这样做的公司——但以现在的情形来看,Siri很糟糕不是吗?
所有我使用过的类似产品,诸如Alexa, Google Talk, 都不尽人意。所以从很多层面来看,我现在并不会从伦理的视角对人工智能的飞速发展过于担心。我很惊讶这些企业居然真的发布了这些产品,但更令我惊奇的是,人们居然在很大程度上调整了自身的行为以适应人工智能。你以一种绝非与人类对话的方式和Siri交谈,因为你知道把Siri当成正常人来交谈的话,它将永远不会明白你的意思。因此,你调整了你的话语,以便机器更容易读懂你的想法。这是人类在做出调整,并非是机器作出调整,因为机器并不是一个自适应的系统。或者说,它比人类具有更弱的适应性。而这,就是最令我担心的。
当然,我所担心的并不是机器做的事情超出人类的预想,而是它们可能改变并限制我们的行为。AlphaGo赢了围棋,但它并未改变我们的日常生活,所以这没什么好担心的。我担心人们用愚笨的方式与机器交谈,以便机器按照我们的想法做事。要知道,这具有许多潜在的危险。它潜移默化地改变我们的习惯行为,使我们对某些类型的错误更具容忍性而对有些错误却更加苛刻。人们会预料到并且能容忍人类所犯的道德错误,但是,人类可能不会容忍这样的错误在机器上发生。经过规划考虑后仍对他人造成伤害的决定如果发生在机器上,会比发生在人类身上更不能令人容忍。在过去十年内,这种改变已经发生了。即使软件会变得更好,机器也会变得更好,但是永远都存在着让人类去适应机器而非真正提高人类能力的危险。
图片来源:wikipedia
6. 如何将计算与哲学相联系?
艾伦:人工智能的道德问题,实际上也是计算与哲学跨学科研究的一个话题。最近几年,我带领我的中国实验室团队所做的研究就是“中国哲学的计算分析”(Computational analysis of Chinese philosophy)。我们曾经只是尝试着做做看的,然而现在有机会了。近十年内,我们可以在大规模的电子文本之上使用计算机算法。在美国,许多高校的图书馆合作扫描了一千四百万本书籍。在中国,我们设法访问了包含一万八千四百份文本的经典文本语料库“汉典”,以及若干中国经典文本。而在此之前,所有这些存在于书籍当中的有趣哲学文本只能由人眼来阅读。
一千四百份书籍,没人会去读这一千四百万份书籍,这实在是太多了。但是借助于计算机,我们现在能够从所有文本中系统地提取信息。以汉典为例,它共有一万八千份文件。一个人是可能将之全部读完的,但这两千多年积累的资料至少要耗费你数年的时间。所以,我们选择用一些计算方法来寻找其中的哲学意义和两千年来的哲学思想变化,这就是我们将计算与哲学相联系的一种方式。
最近,我们还做了关于查尔斯·达尔文的研究。这位生物学泰斗是一个非常好的研究对象,因为在1837到1860年的二十三年间,他完整记录了自己阅读的每一本书。现在,归功于HathiTrust这样的数据库,我们有了这些书籍的电子扫描件。正如我之前所提到过的那样,我们可以找到他所读的几乎所有书籍的电子版,将这些书籍做成了一个语料库,并且使用算法来寻找他阅读经历所展现的模式。我们发现达尔文读的有些书是比较相似的,利用计算机对这种相似性进行衡量,接着就可以探讨他的阅读习惯。比如说,看看他是否有意选择更相近的书来读,还是喜欢挑些不一样。结果证明,在达尔文生命的某些阶段,他坚持阅读相似的书籍。而在另一些时候,他转而做了不同方面的研究。
除此之外,我们还想要知道,他的写作内容是如何与他的阅读相关联的?使用相同的技术,我们分析发现,随着达尔文阅读年限的增长,他的书稿中出现了越来越多的、自己构建的新内容。也就是说,他不仅仅是重复他所阅读的书籍,也不仅仅是将各种观点进行简单拼凑,而是在独立构思新的材料。
我认为,我们站在了一个新的开端,我们在使用全新的工具做全新的研究,而计算机正是我们的新工具。
(感谢温新红对本文的贡献。)
话题:
0
推荐
财新博客版权声明:财新博客所发布文章及图片之版权属博主本人及/或相关权利人所有,未经博主及/或相关权利人单独授权,任何网站、平面媒体不得予以转载。财新网对相关媒体的网站信息内容转载授权并不包括财新博客的文章及图片。博客文章均为作者个人观点,不代表财新网的立场和观点。