当前位置:首页  观点争鸣

浅谈人工智能伦理与治理

来源:中国人工智能学会人工智能伦理与治理工委会作者:发布日期:2022-12-29访问次数:16

郭锐 副教授

中国人民大学未来法治研究院社会责任和治理研究中心 主任

 

在艺术作品中,人们创造了弗兰肯斯坦的形象——一个在雷电中诞生的人和机器结合的怪物。人们对这些强大却并不良善的力量,通常会感到恐惧。我们害怕我们所创造的东西最终带给我们的是毁灭。有了原子弹之后,我们第一次有了可以把整个族类毁灭的力量。之前,在冷兵器时代,即便大规模的战争,也并不能毁灭全体。原子弹的出现,在人类历史中发挥着巨大作用,也要求人类对技术有了伦理的反思。人工智能会不会和弗兰肯斯坦这个怪物一样呢?我们会不会创造一样技术最后毁灭了我们人类?包括埃隆.马斯克在内的一众技术领袖,公开提出了这个问题。这当然引起了媒体和公众的注意。

这是人们谈论人工智能伦理的一个原因:防止机器上海人。这方面的思考最有名的例子来自科幻小说,如阿西莫夫的机器人三定律:第一条定律是机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;第二条定律是机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;第三条定律是机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。这三条定律思考缜密,可谓发人深省。今天,是不是我们把这三条定律写进人工智能系统,就万事大吉了?大家需要知道,三定律内部也会出现矛盾。其实,从阿西莫夫三定律问世,就有不少人质疑三定律的有效性。当然,今天我们不能依靠三定律来完成对人工智能的治理。

那我们今天回顾三定律有什么价值?在我看来,阿西莫夫三定律真正的价值,并不是作为一套可以帮助人类一劳永逸地约束人工智能的规则,而是提出了一个新的可能性。这个可能性就是我们所创造的技术——在处理某些问题上比我们要迅速,在机械、物理力量上要比我们强的技术——不仅不会伤害人类,反而能够造福人类。阿西莫夫三定律让我们至少看到一个努力的方向,就是让人和机器和谐共处的一个新的可能性。

三定律所要解决的核心问题是人的主体性问题,这也是探讨人工智能伦理和治理的核心问题。关于人工智能伦理和治理,无论是算法决策相关的问题、数据与隐私相关的问题和社会影响相关的问题,都关涉人的主体性问题。这些问题中有一些是非常切近、需要立即应对的问题,有一些是非常长远、但对人类未来影响深远的问题。本文通过两个例子来说明:一个是性爱机器人的管制问题,另一个是自动驾驶汽车的管制问题。

康德曾非常明确地提出:人任何时候都应该被当作目的,而不是手段。在人工智能语境下,越来越多的数据可以让我们去训练算法,越来越多的算法应用在我们的社会中,人越来越被嵌入到这样一个算法统治的社会环境中,在这样的社会,人的主体性越来越受到挑战,人被工具化这个特性越来越突出。这是我们考虑性爱机器人管制问题的基础。很多工作都是通过人工智能完成的时候,我们就让机器去做很多决定。这些决定过去都是人来做的,然而现在由机器来决定会不会产生问题?人工智能技术对于人的主体性的挑战,很多时候展现在我们对于机器决策的一些反思。

当代不少商业机构有兴趣研发、推广性爱机器人。网上不少提出性爱机器人可能带来的“好处”:降低犯罪率、提高安全性、可定制化、可随时满足人的性需求等等。但是,我们先要提醒大家的是,性作为人类生理、心理的一个现象,是如此的复杂,甚至没有科学家敢说已经洞悉其中的一切。与人的情感、意志和理性如此相关、特别是和人的亲密关系相关的性,真的可以被性爱机器人满足吗?当我们听到有厂商宣称他们的产品可以去满足大家的需求时,我们首先要知道的是,性的需求和欲望没那么简单。

性爱机器人并不是第一次人类用物体来满足身体欲望。在人工智能的技术条件下,如果它真的可以用到人工智能,我们也许可以把它看成一个控制系统。它有有传感器收集人的反应信息、有处理器处理这些信息、还有动作反馈,这三部分构成一个控制系统。这个控制系统需要我们好好反思一下。

反思这个控制系统,我们要用到哲学家黑格尔提出的一个非常有趣的思想,就是主奴辩证法。黑格尔在他的《精神现象学》里讲到这么一个简单主奴关系:最初主人指派奴隶去劳作,他要奴隶去做什么奴隶就得去做什么;但随着奴隶在他的工作实践中获得实践知识,这种关系开始变化。最初是主人在控制奴隶,但当奴隶获得了足够的知识之后,主人实际上需要依赖奴隶的知识完成生产。在这个意义上,他反过来摆脱了主人的控制。换言之,主人的控制变成了幻象。这样一种主奴关系发生了易位。

我们用主奴辩证法的模式来看看性爱机器人,来探讨一些比较深入的伦理与设计问题。如果你是一个设计者,你要设计性爱机器人的时候,你的目的是什么?为了满足人的性需求,也许让使用者获得最佳的使用感受、最大的性满足。如果你真的实现了这一点,那这样的一个产品到底让人变成了主人,还是奴隶?如果这个产品如此之好,以至于人只有在这里才能够获得你想要获得的满足和享受,人究竟是主人还是奴隶?

我们也许可以用其他所知道的事实来看待这个新的关系。我们知道吸毒——比如使用海洛因——会让人的大脑获得前所未有的兴奋感受。但是当人离开这个感受之后,就会有生理和心理上的依赖,也就是成瘾。到底是人使用海洛因、还是海洛因控制了人?假如人要是用性爱机器人的话,如果它像毒品一样让人成瘾,让人天天不想干别的事情就想使用这个产品,是否会对人造成了成瘾一样的伤害?假如是一个已婚的人,他使用性爱机器人会不会对他的配偶造成影响呢?会对子女有什么影响?比如说,假若一个人使用了性爱机器人之后,他发现上瘾了,认为自己受到了伤害,于是在法院起诉生产和销售性爱机器人的厂商,认为是产品质量问题,在法院可不可以得到支持?假如管制者发现厂商本来知道用户使用后有人可能会深度上瘾,放纵这样的结果发生,难道不应该承担责任?假如夫妻双方离婚是因为丈夫使用性爱机器人,在分割财产和孩子的抚养权方面,法院是否应考虑这个因素?假如孩子去起诉性爱机器人的产商,说是性爱机器人导致家庭破裂,法院又该怎样做呢?

这看起来是一个遥远的问题,但是它有可能成为现实。更值得我们担心的事是未来——这个产品的广泛使用。有没有发现一个特征,99.99%的性爱机器人都是女性形象,这是为什么?当性爱机器人越来越常见,对于女性形象会有什么样的影响?对社会上的人际关系会产生什么样的影响?是否有可能因为性爱机器人而影响到人们对女性的尊重?

在今天的现代社会,人们的结婚意愿已经非常低了,中国已经是大概四到五个适龄男女中有一个是没有结婚的。性爱机器人的使用会不会对这样的一个趋势造成加速下滑?会不会影响生育率?中国人口老龄化加重,机器人的使用如果影响结婚、生孩子的意愿,对社会长期会产生怎样的影响?

第二个例子是自动驾驶汽车的管制问题。在伦理学上,有一个古老的“电车难题”(Trolley Problem)。其内容大致是:一辆电车正在撞向五个在电车轨道上的人,片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。然而问题在于,另一个电车轨道上也有一个人。考虑以上状况,你是否应操纵电车转换轨道?从一个功利主义者的观点来看,明显的选择应该是拉拉杆,拯救五个人只杀死一个人。但是功利主义的批判者认为,一旦拉了拉杆,你就成为一个不道德行为的同谋--你要为另一条轨道上单独的一个人的死负部分责任。然而,其他人认为,你身处这种状况下就要求你要有所作为,你的不作为将会是同等的不道德。这是一个艰难的选择。传统的伦理学中还有人会改变条件,比如五个人都是90岁的人,活不了多久的,另外一个人则是健康的小伙子。这样会改变你的想法吗?又假如这五个人都是十恶不赦的罪犯,另外一个人是我们这个社会的英雄,那你的想法又会是什么呢?

伦理学设定这类困难的讨论,是为了让我们清楚,我们到底是基于什么样的原则或理由来做出了最后的决策。?所以这是古老的电车难题。

现在我们要讨论的是在自动驾驶汽车上,一个现代版本的电车难题:假如有一种紧急情况,它必须要在车内的乘客和路上的行人的生命安全之间做一个选择。这个系统应该保护车内的乘客,还是保护路上的行人?在千钧一发之际我们做出的选择,不是真正深思熟虑,而是人在紧急情况之下做的决策。也许我们会想,计算机能不能产生一个随机选择呢,我们就让命运决定吧。但是你真的愿意把你的命运,把你的生命交给命运决定吗?当你有能力去做一个干预的时候,要不要放弃你做决策的权力?心理学家弗罗姆,曾提出著名的“逃避自由”的命题。现代人在名义上是自由的,你可以做任何决策。然而在当下,人们都不愿意去做决策,因为他们害怕承担责任。在这种场景下,我们要不要做一个被弗罗姆所批评的,放弃做决策的人?

如果不是,我们就得做一个决定,而且承担做这个决定的后果。有一个真实案例,奔驰公司开发了自动驾驶汽车,有人问产品负责人:你的自动驾驶系统是保护行人还是车内乘客?他说,当然是保护车内的乘客。从厂商希望卖车的角度,这可以理解。但这是不是一个好的伦理决定?这是否意味着出钱的人可以做决策?但这也同样影响到公共安全,纽约时报报道之后舆论大哗。很快奔驰公司的负责人出来说,这不是我们公司的立场,我们收回我们之前的说法。但这件事情应该怎么解决?如果交由汽车厂商们决定,由于他们处于一个互相竞争的地位,可以预期最优解是保护车内的乘客,但是以损害路上行人的安全为代价。这类似囚徒困境。这种困境怎么打破呢?只有通过管制立法。

即便决定自动驾驶的“电车难题”由公共权力机构通过管制来解决,我们也需要警醒公共权力是否为利益集团所俘获。我们并不希望金钱去扭曲伦理决策。在管制语境中商业利益和社会利益的平衡,需要好的民主讨论和决策。

实际上最有可能出现的情形是对自动驾驶汽车限速。自动驾驶汽车到底要以什么样的速度行驶?假如跑30公里以下,估计全国部署100万辆车,可能一个安全事故都不会出,但是你真的愿意去做一个开得这么慢的车吗?现在的限速本身也是在一个人的生命安全、社会的需求与经济效率之间的平衡。其中有很多的经济利益在里面。那我们怎么样来保证这样的决策是一个合乎伦理的决策?

通过上述两个例子,我希望帮助大家用一种更清醒的眼光去看待人工智能伦理和治理问题,而不是被浅薄的大众传媒讨论所左右。我们有没有可能在利用科技让个人和社会受益的同时,不会受到科技的威胁?阿西莫夫的思考是让人类创造的机器人遵循人类的伦理。今天,当人工智能得到进一步发展的时候,我们有必要跟随前代思想家思考的脚步进一步思考。社会必须信任人工智能技术能够给人类带来的利益大于伤害,才有可能发展人工智能。而这种信任,需要我们认识和探讨人工智能领域的伦理和治理问题,并且在发展人工智能技术发展的早期就有意识地加以运用。