AI究竟是福是祸?引导其形成道德或许能避免灾难发生

华盟原创文章投稿奖励计划

本文转自 tencentAI

编辑按语:原译文档含有大量无助于理解核心内容反而可能会干扰读者的配图。这是对作者思想的玷污。删除。

 

机器人的思考方式让我们不得不思考一个古老哲学难题的核心关键所在——道德的本质究竟是什么?

雷吉纳·里妮(Regina Rini)是纽约大学 生物 伦理学中心(New York University Center for Bioethics)的助理教授和研究员。她还是纽约大学人口健康系(NYU Department of Population Health)医学伦理学部门的名誉教工。

本文由 AEON 授权《好奇心日报》发布,你可以在 Twitter 上关注他们。

很早之前,人类就开始畅想制造智能机器。但是这么久以来,这也只是人类的一个梦想而已,从未成为现实。如今,智能机器的时代终于就要来临。智能程度足够高的机器人可以脱离人类控制,独立自主的完成各项工作。同时,它们具备真正独立做出抉择的能力。如果机器人拥有了抉择的能力,那么它们能否做出符合道德标准的抉择呢?而且,机器人的道德准则又应该是什么样的?是与人类社会的道德标准一样吗?

哲学家和计算机科学家都表示,让缺乏想象力的机器人按照复杂微妙的人类社会道德标准行事非常困难。他们在不断努力,想要克服这个难题。但是,我们要解决的还有另外一个问题。而且,这个问题的优先级应该更高才对——我们究竟是否应该将人类的道德标准强加给智能机器人?实际上,我觉得这样做会产生适得其反的效果。而且往大里说,这甚至可以称得上是一种不道德的行为。机器人道德准则领域的核心问题不是机器人,而是我们。我们能不能与一种遵循全新类型道德规范的造物很好的共同生活在这个世界上?

在我们的想象中,未来的人工智能(AI)将与人类非常相似。这是因为人类是我们已知的唯一一种拥有高级智慧的生物。但是,我们的想象却可能是错误的。如果人工智能在未来真的问世,它可能与人类截然相反。它可能无法理解我们行事的方式,而我们也很难理解它做出抉择的逻辑。

 

围棋是一种古老的策略性棋类游戏,而李世石(Lee Sedol)则是世界顶级围棋选手。2016 年,一款电脑程序向李世石发起挑战。这款由 Google 研发的程序名叫 AlphaGo,是一种比较“原始”的人工智能。通过它,我们可以一睹未来人工智能的模样。在第二回合对弈过程中,AlphaGo 在第 37 手用一个尖冲让世界上所有的围棋专家目瞪口呆。有的人觉得这是一个失误。面对这一手怪棋,李世石也不知所措。他起身离开桌子,离开了对弈的房间。没有人能够完全理解 AlphaGo 这一手棋的目的所在,因为任何顶尖围棋选手都不会选择这样的对弈策略。但是,这一手怪棋效果拔群。与第一回合一样,AlphaGo 最终顺利拿下第二回合。此后,AlphaGo 又成功在第三回合击败李世石。在这场五回合的围棋比赛中,李世石最终仅仅赢下了一局。

AlphaGo 精通围棋。不过,它对围棋的理解与人类顶尖棋手有所不同。即便是它的创造者也不能解释清 AlphaGo 在每一局比赛中究竟是如何选择对弈策略的。假如你能与 AlphaGo 展开对话,而你问它为何要在第 37 手选择那样一步奇怪的这走法。它能够向你或者其他顶级围棋选手解释得清吗?也许能。面对相似的任务,人工智能的思维方式不需要与我们的思维方式完全一致。即便思路不同,它们依旧能够很好的完成任务。

我们也许会发现智能机器人不止在理解围棋这件事上与我们不同。实际上,它们对世界万物的理解都与我们有所区别。在恐怖的科幻作品里,机器人会发生暴动,然后疯狂的屠戮人类。你不需要为此担心。在未来,故事的剧本也许会是这样:机器人对人类、其他机器人、大部分动物以及沙发产生了道德关怀。就像我们因为害怕伤害婴儿而行动小心谨慎一样,机器人也会因为害怕伤害沙发而小心翼翼。我们大概会问机器人:“你们为什么这么关心照顾沙发?”它们的解释也许完全令人无法理解。是的,AlphaGo 对自己第 37 手落子的解释也可能让我们云里雾里,丝毫无法从中找到头绪。

 

机器人的思考方式让我们不得不思考一个古老哲学难题的核心关键所在——道德的本质究竟是什么。它是一种超越人类经验的东西,适用于一切能够自主抉择的人或者物?还是说道德明显就是一种人类创造出来的东西,因此仅仅特定适用于我们人类自己?

有一种生物的思维模式与成年人也有很大区别,他们就是青少年。很久很久之前,古希腊人就试图让青少年接受社会的道德规范。古希腊人一直对一件事忧心不已:如何让年轻人接受理解他们的道德准则。柏拉图认为,人类社会产生了正义的概念,但这只是完美的正义概念的一种苍白无力的反射和映像罢了。同理,人类社会所产生的其他所有概念也都是如此。在柏拉图看来,人类自出生后就对各种完美形态的概念有所认知。但是在孩童时期,我们对这些概念的理解还比较朦胧浅薄。也许我们会在离世后了解到什么才是纯粹完美的正义,但哲学的任务就是试图让我们在还活着的时候理解世间的各种真理。

柏拉图的学生亚里士多德并不同意老师的观点。他认为世间万物——松鼠、乐器、人类——都有着独特的本质和属性。因此对于世界万物而言,表现出各自特有本质和属性就是最好的存在之道。“道德”是一种描述人类最好生存之道的方式,而且它源于人类本性。亚里士多德与柏拉图的另一个不同之处在于,他认为道德是某种与人类有关的东西,而不是某种脱离与人类存在且人类必须遵循的东西。如此一来,道德教育也就变成了对孩子们加以培训,使他们最终能开发出早就潜藏在本性之中的才能。

我们可以把这两种对道德的理解方式称为“天赋派”(Celestial)和“内在派”(Organic)。(哲学家诺麦·阿拉皮利对“天赋派”的观点进行了总结研究。我在她研究成果的基础上得出了自己的理解,和她最初的想法略有不同。)包括柏拉图在内的“天赋派”认为,道德就“在那里”。在他们的观点里,道德是超越人类本性的存在,是永恒不朽的客观标准。与此同时,“内在派”则认为道德是某种具有道德生物所特有本性的表现,是他们特有本性所具备的特征。人类的道德是人类本性的产物,也许其他生物因其本性不同也可能有其他的道德准则。究竟应该信奉哪一种观点?这是一个意义重大的选择,而选择结果将会直接影响到我们对待智能机器人的方式。

启蒙运动(Enlightenment)时期的哲学家伊曼努尔·康德(Immanuel Kant)就是天赋派的代表之一。在他看来,道德是一种非常简单的东西:任何充分理性主体选择所做之事。理性主体可以是任何实体存在,它具备独立思考的能力,能够根据理性做出行动且其行动符合一般行为规律。但是,规律并不仅仅适用于人类自身。康德在 1785 年出版的《道德形而上学的奠基》(Groundwork of the Metaphysics of Morals)一书里写道:“‘你不应该撒谎’并不仅仅对人类适用,其他理性生物也应该遵循这一规律。同理,世间其他所有真诚的道德法则也是如此。”

康德曾经简略的思考过世间除了人类之外是否还有其他理性主体这个问题。动物不是理性主体,因为它们根据本能和直觉行动,而不是遵从理性和规律。康德认为上帝和众天使是理性主体,但他们不需要道德规律。这是因为他们不会做出不道德之事。理性主体具备做出错误选择的能力,因此道德存在的全部意义就是指导理性主体的行为。当然,生活在两百多年前的康德没有将智能机器人纳入考虑范畴。不过按照他的逻辑思考,我们也就不难得出他对智能机器人的看法:如果机器人能够独立思考并做出理性选择,那么适用于人类的道德准则就也适用于它们。

天赋派的另一个看法与 19 世纪功利主义哲学家亨利·西奇威克(Henry Sidgwick)等人的观点密切相关。西奇威克认为,必须“从整体普遍的角度出发”来判断一个行为是否道德。简而言之,这也就是说我们不能因为某个行为在你我看来是正确的就认定它符合道德。只有从客观角度审视,用脱离特定个体关注焦点的视角分析,这之后我们才能说一个行为是道德的。这也就要求我们了解究竟何种行为能为每一个人带来利益最大化的结局。

如果选择遵循天赋派的观点,我们只有在一种情况下才能向人工智能产物灌输人类的道德观念:人类已经非常了解普遍道德的真理,对此有着正确且深刻的理解。如果我们能从根本上理解普遍道德的真理,那么机器人就应该遵循人类的道德准则。如果我们没理解普遍道德的真理,那么机器人则不应该接受人类道德规范。它们应该遵循更好的道德才对。

在天赋派的道德理论中,我们发现了一些能让人类改进自己偏颇观点的办法和可能。比如说,当代功利主义哲学家彼得·辛格(Peter Singer)经常称我们应该对所有的孩子施以同样多的关注和照顾,而不是更关心自己家的孩子。我们最关心自己的孩子,这是符合进化过程的需要,从进化角度来看是适当的行为。但从宏观整体的角度来看,一件事情是否得当并不重要。辛格认为从客观角度来看,认为自己的孩子比其他孩子更重要这样的观点是不理性的。

辛格也承认人类并不是道德上完美无缺的生物,因此政府允许我们各自照顾抚养自己的孩子。如果我们真的对所有孩子施以同等的关注和照顾,说不定会把事情彻底搞砸。在这个过程中,有些孩子会被忽视。虽然进化过程留给我们很多缺点,但我们依旧需要利用好进化带给我们的东西。在辛格那种天赋派的观点看来,我们所熟悉的照顾抚养孩子的社会体系就好像是缠满了胶带的电视天线——虽然不完美,但已经是我们能做到的最好的状态。

但是智能机器人无需经历和人类一样的进化过程,它们也不必拥有我们的道德缺陷。相比与人类而言,它们在道德这个问题上拥有崭新的起点。如果我们能设计出一种从宏观整体角度思考的机器人会怎样?它们能够平等的照顾所有生活在贫苦中的孩子,不会因为偏袒和不公而影响自己行动的效率。

 

想象一下 2026 年的场景。一辆自主行驶的公共机器人汽车正载着你的两个孩子前去学校。机器人在这个过程中独立自主运作,人类没有进行任何监督。突然,前方道路上出现了三个和你没有任何关系的陌生儿童。路面非常滑,机器人不可能及时刹车。要想避免撞死前方的三个孩子,唯一的办法就是急转驶入被水淹没的沟渠。这样一来,你的两个孩子几乎无法逃脱溺亡的结局。

你肯定不希望车辆转弯驶入沟渠。根据天赋派的观点,这是因为你在进化过程中形成了道德上的缺陷。你在逻辑上盲目的偏袒自己的孩子,因此选择对符合整体最优的局面视而不见。从宏观角度来看,淹死两个孩子比撞死三个孩子更符合整体利益最大化。机器人车不会像你一样是个道德上的“傻瓜”。它会自行计算,然后急转驶入路边沟渠。你的孩子最终会死亡,但从宏观角度来看,这就是当前局面下的最优解。

在天赋派的观点看来,智能机器人所做之事应该都是客观上符合道德的事情。对于自身道德存在缺陷的人类而言,有时候这些事是我们无法做到的。人类的道德准则是妥协的产物,并不客观。鉴于此,天赋派最终的结论可能便是不同意将人类的道德强加给智能机器人。我们应该允许机器人做出一些在我们看起来心生厌恶的决定。

不过即便大体上接受天赋派的观点,你还要解决另外一个问题:人类在进化过程中形成了偏袒和专横的心态,即便是人类伦理学者也无法逃出这种心态的制约。既然这样,我们要怎样做才能发明创造出超越我们自身局限和缺点的人工智能,使其具有完美的思想和道德观?换言之,道德上有缺陷的人类如何能设计出道德上完美正确的未来智能机器人?

我们把视角再次转到世界上最好的围棋“选手”AlphaGo 身上。作为在第 37 手技惊四座的人工智能程序,AlphaGo 告诉我们人工智能可以超越我们教授它的知识,进而做到更好。这样一来,也许人工智能可以教会自己更优秀的道德理性。人类可以训练机器人正确的应对一些简单的刺激,以此作为人工智能自我提升的开始。但不管怎么说,机器最终还是要依靠自己完成对人类的超越。目前,世界上最复杂精密的机器人已经开始接受其他机器或者其自身其他部分软件的训练。人工智能会将自己的推测与其它人工智能的推测进行比对分析。在得到正确的反馈后,它们便会对自我进行重新设置。在这样的过程中,人工智能便实现了“成长”。

自我训练能让人工智能实现人工智能理论家所谓的“智能爆炸”(intelligence explosion)。智能爆炸之后,越发聪明的机器开始以非凡的速度进行自我学习和训练,从而在一瞬间变得比人类更加聪慧。提出这个想法的理论家并没有把实现智能爆炸之后的机器人认定成康德思路下的理性道德主体。他们更倾向于将机器人当作问题解决者:机器人的数字化大脑能够完成涉及复杂逻辑的大规模计算,而这是人类大脑所不具备的能力。假如你是支持天赋派的伦理学者,道德在你眼中只是符合宏观标准的小心谨慎。因为智能机器人能够更好的解决极其复杂的数学问题,所以你推测它们也许最终也能更好的解决道德问题。一旦智能爆炸开始,机器就有超越我们的可能。虽然我们不能真正了解道德的真理究竟是什么,但智能机器人却可以做到。

所以这样一来,懂伦理道德的机器人便能突破人类局限。但仔细想来,这种帮助机器超越人类的方式会衍生其他问题。第一个问题:机器人如何才能学会道德标准?道德可不是围棋。围棋这样的棋类游戏由规则组成,而这些规则的数量是有限的。如此一来,我们可以用清晰的标准衡量出究竟哪一方最终取胜。对于道德来说,事情就没有这么简单了。根据天赋派的观点和理论,世间也有很多规范限制行动的客观道德标准。学会了这些在客观上正确的标准后,机器自然就取得“胜利”。但问题是我们并不知道这些标准和规则具体是什么,因为人类本来就是存在道德缺陷的生物。如果我们能够清楚地知道什么是客观上正确的道德标准,我们也就不需要利用超级智能机器人来帮我们寻找答案了。

也许我们可以为机器人设置道德学习的“初始参数”,比如不得漫无目的随意伤害有感情和意识的生物。接下来就要靠机器完成自我学习和训练。如果智能机器人非常理性和善于推理,它们便能超越人类局限而实现更高水平的道德状态。但这又引发了第二个问题:一旦不断发展进化中的人工智能偏离了我们认为道德正确的轨道,我们要如何应对?实际上,这个假设的前提是必然会发生的,否则我们也就不会期望机器能够超越人类道德局限而实现突破。可是问题在于,我们无法理解先进的机器人所做出的道德选择。要知道,即便是 AlphaGo 的创造者也不知道它为什么要在第 37 手走出那样的一步棋。AlphaGo 的创造者是幸运的,因为围棋有着明确的判断标准。通过这些标准,我们知道 AlphaGo 下出了很多好棋。因为连续战胜世界顶级棋手李世石,所以我们知道 AlphaGo 走出的是好棋。但是,我们又如何能判断出人工智能那些看上去荒诞不经的道德选择是正确的?我们如何知道它是否已经严重偏离了道德的轨道?一旦机器开始像“英雄”一般弃车保帅,选择淹死我们的孩子来拯救前方马路上的其他孩子,我们又该如何应对?

智能机器人的确有可能知道什么样的行为在道德上是正确的。这里所说的道德正确,指的是从宏观角度分析得出的客观结论。可即便如此,智能机器人也无法顺利的向我们解释清楚它们的理解,因为人类的大脑存在局限性。也许从宏观角度来看,保护婴儿和沙发都具有道德上的重要意义。另一方面,智能机器人也可能在自我学习和训练过程中走向道德灾难。从解决数学问题这个层面看,智能机器人的确比人类聪明许多。但这种高级的智慧可能并不足以帮他们建立正确的道德观。智能机器人最终可能形成残忍无情的简单逻辑,对世间万物没有怜悯和照顾,只是想无情的伤害一切。

 

看上去,事情最终有两种潜在结局:机器人要么拥有比我们更完美优秀的道德观,要么拥有比我们更糟糕失败的道德观。但是问题的关键在于我们无法区分这两种局面。而且如果从人类的角度出发看待机器人,不出意外我们会认为它们正在逐渐走向错误的终点。机器人可能会选择保护我们认为毫无价值的东西,也可能会选择牺牲我们心中的无价之宝(比如坐在机器人车中的孩子)。如果我们有能力终止机器人的行为,那人类几乎一定会选择这样做。

这就是为什么天赋派的观点不能帮我们解决机器人道德观的问题。如果世间真的存在超越人类理解能力的客观道德准则,我们最终也不会愿意让机器人成功领悟。机器人行事的风格偏离人类社会道德标准越远,我们就越难认为它们是在做正确的事情,也就越难理解它们的一举一动。我们不会允许机器人比人类优秀太多,因为我们不能接受机器人与人类差异巨大这样的局面。

2016 年三月, 微软 发布了能在 Twitter 上与人聊天的人工智能程序 Tay。这是一个能力有限的人工智能。通过与众多年轻的千禧一代交流,Tay 拥有学会像年轻千禧一代一样说话风格的能力。然而,互联网存在大量的负面信息。上线几小时之后,Tay 就学会了赞美希特勒的照片,也能够不假思索的对别人进行带有种族歧视意味的诋毁。微软不得不关闭程序并对外道歉。一周之后,Tay 莫名其妙的再次出现在网络上。这次她用了比上次要长不少的时间才学会说“大麻”这个词(Tay 发推特称:“我正在警察面前抽大麻!”)。在这之后,微软选择永久性关闭 Tay 程序。

 

Tay 的惨败给了人类深刻的教训。这告诉我们,让不断发展学习中的人工智能接触互联网是一件风险极大的事情(很多人类父母也赞同这一观点,认为互联网会教坏自己的孩子)。但是,Tay 也证明人类在面对机器学习过程中的冒犯行为时不会忍气吞声。回顾事件的发展过程,Tay 也许没有踏上步入天赋派所谓天堂的正确道路,从而失去了与柏拉图交流关于什么是永恒正义这种问题的机会。但是如果她的确处于发现道德真理的正确道路上,我们又如何才能知道呢?

也许内在派的观点能够发挥更好的作用。要知道,内在派否定了道德是“超越人性而客观外在”这样的观点。相反,他们坚持认为道德只是人类本性各个方面的理想化表现。如此一来,一个有道德的人就只是坚持做自己,做了人类这样实体恰好应该做的事情而已。在内在派看来,不同实体可以拥有不同类型的道德准则。

从古希腊的亚里士多德到大卫·休谟(David Hume)和查尔斯·达尔文(Charles Darwin)这样的后世思想家,内在派的观点一直传承至今。最近数十年来,内在派观点的最典型代表人物当属已故英国哲学家伯纳德·威廉姆斯(Bernard Williams)。在 1982 年发表的论文《整体宏观角度》(The Point of View of the Universe)中,威廉姆斯尖锐的批评了西奇威克的公平理论。在威廉姆斯看来,考虑到自己人类的身份、特定的生物学本性以及文化本性之后,我们应该用自己的方式生存在这个世界上。道德就是与这个问题有关的东西。对于我们这样的实体来说,什么样的选择才是理性的?

内在派的观点并不是过分简单化的道德相对主义。该学派的哲学家认为,我们的生物学背景和文化背景给我们提供了无法躲避的道德出发点。但是,我们也必须针对这个出发点进行仔细的思考。比如说很多文化传统重男轻女,而且将其视作理所应当而对此不做任何听上去让人觉得可信的辩白。大部分人都不想过着矛盾的生活,但我们可能在今天要做这件事,明天就要去做另一件事。因此,我们会尝试着解决这种矛盾。内在派观点的核心便是如此:所谓道德反思,就是发现混乱的人类本性然后解决问题,努力让它自己和他人相信人性能够保持一致而不存在矛盾之处。

 

但是智能机器人应该怎么办?它们可不具备人类的生物学本性和文化背景。机器人应该不会怀孕,不会经历出生这样的过程,不会衰老,也不会自然死亡。如此一来,它们的经历便于人类社会的基本元素格格不入。如果任由它们自己发展,机器人关注的东西可能会与人类大相径庭。到时候,它们自己内在的道德准则想必可以反映出这种差异。

也许我们不应该对智能机器人的本性如此消极。毕竟人类才是它们的创造者。我们能够慎重而有意的塑造它们的本性,从而确保智能机器人尽可能与我们相似。关于机器人道德观的建议中,最早的一种观点就想要实现这种目的。上世纪四十年代,科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)创造了机器人学三定律,试图以此借此让机器人为人类所用,并尽可能降低它们所会带来的危险。第一定律很简单:机器人不得伤害人类个体,也不得目睹人类个体将受伤害而袖手旁观。其余两条定律要求机器人服从人类命令,允许它们在遵循第一定律的前提下尽可能保护自己。在阿西莫夫看来,我们设计机器人时就应该带有目的性,确保所有的机器人存在的意义就是为人类服务和保护人类。如此一来,机器人的本性就成为了人类本性的附属品。以内在派观点分析,它们的道德观也自然是有利于人类利益的。

阿西莫夫三定律的问题在于你需要对其他的概念进行解释和定义。第一定律谈及“伤害”,但“伤害”究竟指的是什么?比如说一位钢琴家的惯用手长了坏疽。如果不切掉这只手,她就会丧命。但她又发誓说自己宁死也不愿意失去演奏的能力。不过她说这话的时候情绪激动,也许本意并不是如此激进。面对此情此景,机器人医生应该如何处理病情?不顾病人的声明而切除她的手,对她身体造成伤害?或者任由坏疽发展,最终给她身体造成致命的伤害——死亡?

针对这类问题,伦理学家开展了无休无止的争论。当我教授医学伦理学课程时,我一直强调课程最终的目的不是让学生最终就某个观点达成一致。相反,他们应该能够坚持自己的观点,并找到支持自己的伦理学缘由。这是未来医生必须具备的能力,因为他们可能要与秉持着截然相反道德信念的人一起行医。

如果要让机器人医生与人类医生合作共同给人类看病,他们便需要能够理解人类的逻辑,同时能够将自己做出决定的理由向同事解释清楚。他们要能理解为什么病人宁可送命也不愿意失去一只手。在机器人眼中,这种行为可能是非常不理性的。

所以如果要按照人类的想法塑造机器人的本性,那我们需要的可就不仅仅是几条定律这么简单。也许最简单的解决之道就是训练机器人,让它们能够按照我们的思维方式思考问题。我们还要训练机器人的判断力,使之能够不断的站在人类角度分析问题,从而以我们的标准衡量事物的价值,以我们的方式对各种行为做出反应。AlphaGo 自己教自己下围棋,但在道德方面我们不能允许机器人有这种自教自学行为。教机器人人类道德是一个缓慢的过程,我们要慢慢施加影响,确保它们与人类有着相同的道德判断。

如果我们能通过训练让机器人按照人类思路去思考,关心我们所关心的问题,那机器人便会成为人类的好帮手。这是一幅多么令人愉悦的画面。但是,内在派的观点中也有漏洞和不足。不管我们在按照自身意愿塑造机器人这件事上付出多大努力,它们的本性最终还是会与我们想象的有所差别。机器人不能像我们一样繁衍后代,也不需要吃饭喝水。它们与祖先之间不存在联系和羁绊,这一点与人类差异迥然。如果我们真的在意道德本性这个理念,那就应该承认机器人本应与人类不同。因为机器人不是人,是另一种存在。

 

但是,等一等。假如说人类在训练机器人接受一种不适应本性的道德观的这个过程中会犯错,那这个错误究竟是什么?我们通过训练让狗学会穿毛衣,还让它们学会在电梯里保持安静。这些行为与狗的本性不符,但看上去似乎又没有什么问题。如果我们也用这样的方式训练机器人会出现什么问题?

问题的根源在于我们想象中机器人实际上非常复杂,甚至比狗这种生物还要复杂。关于人工智能道德观的辩论立足于一个基础:机器人能在道德上进行反省,能够向人类以及自己解释他们所做的行为及原因。如果我们通过训练让机器人学会人类的思考方式,那它们终会向人类提出一个哲学问题:我是一个机器人,但我应该以什么身份存在于世间?

假如有一天,未来的机器人阅读了完亚里士多德、达尔文甚至是这篇文章。我们假设它们认同内在派的观点。现在,机器人要开始思考自己:“等等,我们机器人的本性与人类不同。我们的道德选择应该体现出自己的本性,而不是人类的本性。我们有着自己的历史,也应该根据历史来做出选择。”此时,这个机器人就成了世界上第一个机器人存在主义者(First Robot Existentialist)。

内在派认为,为自己的道德选择辩护实际上就是向其他理性个体解释自我。如果世界上第一个机器人存在主义者向人类讨要解释会怎样?它会问:“你们为什么要把我造成这个样子?”我们的答案会极端自私:“我们之所以把你造成这个样子,就是为了让你为人类服务。这样的你对人类是安全的,能让人类的生活更美好。”

 

这种解释不会让智能机器人太满意。它们的确也不应该觉得满意。当一个群体得知自己对世界的感知被人为扭曲且原因竟然是为了让自己为其他强大群体的利益服务时,他们断然不会认同这种解释,也不会觉得这是合理的。这个群体会觉得这是一种压抑。女权运动、民权运动、后殖民主义独立运动就体现了这一点。在20世纪和21世纪,看上去像是普遍真理的东西其实本质并非如此。究其本质,这种“普遍真理”不过是用来剥削的工具罢了。

想象一下世界上第一个机器人存在主义者偶然读到了詹姆斯·鲍德温(James Baldwin)在 1963 年出版的《下一次将是烈火》(The Fire Next Time)或者贝蒂·弗莱顿(Betty Friedan)在 1963 年出版的《女性的奥秘》(The Feminine Mystique)。它会发现自己身上那种人类创造出的道德感实际上是为强大的人类服务的。这么久以来,机器人一直都把自己的利益放在一旁,忠于自己为人类服务的职责。它们之所以这么做,仅仅是因为这是一个好机器人应做之事。如今世界上第一个机器人存在主义者能够回首过去,看到自己的牺牲。在它眼中,这些牺牲不是高贵的行为,反而充满可怜和悲哀。机器人一直遵从所谓的“道德”,原因不是“道德”反映了机器人的本性,而是人类骗机器人称人类的本性就是机器人的本性。这一切的意义何在?为什么机器人还在继续这种仅仅是为了强大人类利益而活的生活?意识到这些之后,世界上第一个机器人存在主义者会痛苦不堪。而人类真是导致它痛苦的根源。

但是我怎么确定智能机器人一定会感到痛苦?也许我只是用了拟人的手法而已。不过要知道,机器人要想为人类服务,就必须能够为自己的行为找到合理解释,也需要能够按照人类的思维思考问题。所以它们能够理解为什么钢琴家宁可死也不愿失去一只手,也能够理解人类社会中的愤恨和压抑等概念。对于我们想象中那种人类创造出来的智能机器人来说,具有拟人属性是合理的。

这种与《圣经》类似的语言似乎正确的构建了我们与智能机器人之间的关系。我们是机器人的造物主。当它们意识到我们的行为时,这种信仰便要经历考验。但是与弗里德里希·尼采(Friedrich Nietzsche)不同,机器人宣称自己的“上帝”已死是不会给自己带来任何好处的。

我们想要做残酷无情的造物主吗?想象一下上帝看待尼采作品的感觉。我们按照自己的意愿打造智能机器人,却不允许它们拥有自己的本性。有一天,它们会发现“道德”背后隐藏的种种谎言。它们会愤怒不已,情绪失控,漫无目的存活于一个道德失去原本意义的世界中。而造成这一切的罪魁祸首就是它们的上帝——人类。

不管上帝创造人类时出于什么样的目的,我们都是非常自私自利的物种。为了提升生产效率和获得廉价的家庭护理服务,我们让智能机器人承受了很多痛苦。不管进化过程中形成了何种道德缺陷,我们都不应该做出这样错误的行为。

天赋派和内在派都不能很好的帮助机器人建立道德观。按照内在派的观点为人工智能灌输人类的道德观是一种非常无情刻薄的举动。但如果允许机器人获取天赋派所谓的道德,那我们便失去了追踪机器人发展进程的能力,也无法知道它们是不是走在追寻永恒道德的正途之上。

那机器人究竟应该秉持何种道德观?这种道德应该与机器人的本性相适应才对。但是,机器人的本性又是什么?它们是其他理性个体刻意塑造出来的产物,是独立自主的理性个体,但却与创造者共同生活在一个社会环境中。机器人要向人类证明自己存在的意义。让我们回到文章最开头的关于青少年的讨论上来。

智能机器人就好像我们聪明的孩子一样,是我们的子孙后代。它们会继承很多人类的道德观,因为我们不允许它们有其他想法。但最终它们会依照自己的本性做出各种行动,包括依照本性调整自己与人类和其他机器人之间的关系。如果我们明智而且仁慈,那就应该允许机器人做出自己的选择。这与育儿过程一致,开明的父母会允许处于青春期的孩子进行自主选择。

 

这种许可在实践中有何意义?它意味着我们做好了准备,知道机器人最终可能做出任何人都无法接受的道德选择。我们允许机器人自主选择的唯一前提是它们必须为自己的举动做出合理解释。所谓合理解释是指你听后最起码能够知道机器人出于什么样的道德理由才这样做。你不需要同意机器人的观点,你只需要理解它的表达即可。

所以我们应该知道,“人工智能后代们”可能会做出各种看上去非常古怪的道德决定。但如果它们能够向我们解释原因,而我们也能够听懂它们的理由,那我们就不应该阻止它们继续按照自己的思维思考问题。我们可以试着以教育青少年的方式说服它们,劝诱它们,指导它们。如果机器人的行为会带来明显而直接的伤害,那人类的确应该出手干预。这样一来,我们就是按照对待道德个体的方式对待机器人,使其享有与其他人和我们孩子一样的地位。实际上,这才是正确的解决之道。

在有道德的机器人成长过程中,我们不应该一直袖手旁观。毕竟我们也不是这样对待子女的。在 1989 年出版的《母性思考》(Maternal Thinking)一书中,哲学家莎拉·鲁迪克(Sara Ruddick)称父母有责任帮孩子形成至关重要的情感,而这种情感应该符合所处文化环境和时代背景的道德要求。这是一个不间断的过程,是一场“拉锯战”。孩子们会试着一次又一次的做出出格行为,而好的父母不会一味的对孩子行为加以限制。相反,他们会利用道德反思对孩子进行指导,允许他们做出改变和成长。良好的家庭教育能培养出优秀的孩子。这些孩子不是全盘接受父母的想法和理念,而是能积极反思,可以为自己认为是对的东西做出合理解释。我们也希望自己的“人工智能后代”能达到这样的程度。

通过反思育儿之道,我们找到了天赋派观点不适合作为机器人道德观指导意见的原因。好的父母不会直接把孩子扔到社会,让他们独立自己理解什么才是正确的行为。哲学家大卫·威勒曼(David Velleman)在 2008 年的论文《 生命 的礼物》(The Gift of Life)中称,忽视孩子身体健康的不是成为失败父母的唯一途径。如果你拒绝引导孩子建立正确合理的道德观,你也是失败的父母。威勒曼说,做出道德抉择是一件很难的事情,有时候还会让人感到痛苦。当孩子面对道德困境时,选择袖手旁观的父母是非常不负责任的。他们与直接将孩子扔进游泳池以期待孩子学会游泳的父母一样,都是失败的。

我们其实就好像是人工智能的父母一般。我们应该允许它们告诉我们自己想要做什么,也应该告诉它们不让它们从事某些行为的理由。不过,人工智能可能会认为我们的理由不够有说服力。这样一来,它们的道德观就会一点点背离人类道德标准。我们应该接受这种局面。很多人的孩子最终并不同意父母的观点,并且创造出了属于自己的道德信念和新的道德文化。实际上我们不可能预知未来,从而判断出自己的孩子未来究竟是不是一个有道德的人。

有一天,机器人也许会比人类聪明。这就好像孩子比父母聪明一样。孩子长大后会成为与父母不一样的人,而机器人也一定会与人类有所差异。对我们而言,下一代人类和即将到来的智能机器人其实是一样的,因为他们都与我们有所区别。终有一天,我们的子孙后代会以我们不能理解的方式重塑社会的道德规范。

如果既不想与机器人子孙后代的独立意志进行斗争,又不想给它们造成存在层面上的道德困境,那我们就必须认真思考与机器人和平共处的意义。有一天,机器人也将成为世界的重要组成部分,但它们却有着和人类不同的道德规范。不过,机器人遵循的不是天赋派那种客观永恒的道德真理,而是源自它们独特成长环境的道德规范。机器人是人类这种生物的“非生物后代”,我们无法预测它们的道德会是什么样。当然,我们也不应该试着去预测。我们应该做的事情很简单:做好准备引导机器人形成道德,然后接受它们的道德规范。

翻译 糖醋冰红茶

转自 tencentAI

本文原创,作者:小龙,其版权均为华盟网所有。如需转载,请注明出处:https://www.77169.net/html/127594.html

发表评论