社科网首页|客户端|官方微博|报刊投稿|邮箱 中国社会科学网
新兴领域

【闫坤如】人工智能机器具有道德主体地位吗?

人工智能先驱图灵( Alan Turing) 在论文《计算机器与智能》中提出“机器是否能够思维?”的疑问,同时提出机器可能具有智能的特征。“一台没有肢体的机器所能执行的命令,必须像上述例子( 做家庭作业) 那样,具有一定的智能特征”〔1〕。强人工智能就是让机器实现人类智能,并且机器不仅仅是实现人类智能的工具,机器具有人类智能,那么计算机或者机器是否能够成为像人类一样的道德主体呢? 这引发学者思考。我们通过学者对道德主体研究的嬗变以及对于道德主体标准的界定来分析。

一、道德主体的研究嬗变

1.道德主体从人到生命体的拓展

人工智能是否具有道德主体地位涉及到对道德主体研究的溯源。道德主体( Moral agent) 法律术语译为“道德代理人”,指的是能够具有主观判断且能够承担法律责任的人。道德主体指的是具有自我意识,能够进行道德认知、能够进行推理并形成自我判断、能够进行道德选择与实施道德行为且承担道德责任的道德行为体。从这个意义来讲,只有具有理性思维能力的人类才具有道德主体地位。婴幼儿、精神病患者等理性有限的人群虽然具有某些基本的道德能力,但不能完全对自己的行为负责,不能称其为道德主体。康德( Kant) 把道德看作是理性当事人之间的关系,因此,婴幼儿、精神病患者以及其它动物应排除在道德主体的范畴之外。动物伦理学家彼得·辛格( Peter Singer)反对这样的观点,辛格提倡动物解放,认为动物具有与人同样的主体地位; 在费因伯格( Joel Feinburg) 看来,动物与人都是生物进化的结果,动物具有人类的意识与欲望,应该享有人类主体一样的生存权与自主权,应该赋予动物与人类一样的道德主体地位。植物因为不具备动机、意识、冲动等,所以植物不可能具有人类权益与道德身份。环境伦理学之父罗尔斯顿( Holmes Rolston)主张自然内在价值的合理性,环境包括动物、植物在内都具有道德主体地位。自然界的自然属性中包含的一切生命体都具有道德主体地位。

2.道德主体从生命体到技术人工物的转变

1992年,拉图尔( Bruno Latour) 提出技术人工物可以执行人类道德,且执行道德规则的方式与人类相似,技术人工物可以看作道德主体。比如,人工设计的道路减速带作为一种道德媒介执行道德规则,对汽车驾驶员的道德行为产生影响,从而避免车辆超速驾驶,这样,调节主体行为的技术人工物具有潜在的道德主体地位。2004年,维贝克( Pe-ter - paul Verbeek)提出“道德物化( materialization of morality)”的观点,所谓“道德物化”指的是把抽象的道德理念通过恰当的设计,在人工物的结构和功能中得以体现,从而对人的行为产生道德意义上的引导和规范作用。维贝克承认了技术人工物具有道德主体地位,人工物与人一样成为道德主体。技术不能简单地被看成是人与世界中介的工具,人工物在人与世界的关系中发挥着主动性作用。技术的调节具有道德维度,技术物是道德承载者。技术人工物等技术装置也显示出道德意蕴,应该把客体的道德维度以及客体对主体道德的调节都纳入道德范畴。阿特胡斯( Hans Achterhuis)主张“将装置道德化”,比如,验票闸门规范逃票行为,人工物的行为影响人类行为主体的道德自主性,可以看作是道德主体。人工物不是道德中立的,它们可以引导人类的道德行为以及影响人类的道德结果,技术人工物可以通过使人类行为合乎道德来促进或加强道德。例如,如果一辆汽车在驾驶员不系安全带的情况下发出警告,它就会触发驾驶员的“系安全带”这一个道德行为。在这个意义上来讲,技术人工物具有道德主体地位。

3.道德主体从人工物到智能人工物的转变

机器是否具有道德主体地位涉及到机器与人的区别问题,2006年约翰逊( Deborah G.Johnson)在《计算机系统:道德实体非道德主体》〔2〕一文中围绕意向性展开对于道德主体的讨论。意向性是人区别于机器的根本特征之一,即使机器与人具有同样的行为,但机器不具有意向性,人具有意向性。如果智能机器不具有意向性,那么人工系统能否成为道德主体呢? 1978 年,斯洛曼( Aaron Sloman)在《哲学中的计算机革命———哲学、科学与心灵模式》〔3〕一书中论述了“未来机器人能够思考和具有感知力”的可能性场景,因此,应该把机器纳入道德主体的范畴,关注机器的伦理地位。丹尼尔森( Pe-ter Denielson) 在其著作《人工道德:虚拟游戏的道德机器人》〔4〕和霍尔(Josh Storrs hall) 在其著作《超越AI:让机器产生良知》〔5〕都承认智能机器具有道德主体地位,关注设计道德机器。科林·艾伦( ColinAllen)、瓦纳( Gary Varner)与泽欣尔( Jason Zinser)在文章《未来的人工道德主体原型》〔6〕引入“人工道德主体( Artificial Moral agents,简称 AMAs)”这个术语,直接承认了技术人工物的道德主体地位。机器与人对比是独立的道德主体,机器能够自我推理与自我决策,能够触犯人类的利益,就如同一个人可以触犯到另外一个人利益一样。因此,可以把机器作为道德主体来看待。人工智能专家福斯特( Heinz von Foerster)认为现有的机器人不仅仅是伦理规则的被动中转者,还在现有道德生态中与其他施事者互动,应该把智能机器作为道德主体来规范。智能机器这种高度进化的技术人工物具有自主行为和智能信息处理能力的,可以称为之道德智能主体。按照这种观点,道德主体的类别除了人类之外,还包括自主机器人和软件主体。

纵观学者对于道德主体的研究,经历了从具有自由意志的人类到生命体、然后到不具有生命体征的人工物最后到智能人工物的研究范畴的转变过程。

二、智能机器的道德主体标准分析

按照博施特罗姆( Nick Bostrom) 和尤德科夫斯基( Eliezer Yudkowsky) 的观点:“制造会思考的机器的可能性可能引发一系列的伦理问题,这些问题既与确保机器不伤害人类有关,也与其他道德上关联的存在者有关,也与机器本身的道德地位有关。〔7〕”机器是不是具有道德主体地位,这涉及到对于道德主体标准的界定。

瓦拉赫( Wendell Wallach)与科林·艾伦在《道德机器:如何让机器人明辨是非》〔8〕一书中专门花一章的笔墨讨论机器的道德主体地位问题,他们认为应该对道德主体进行不同层次的划分,他们提出三种不同类型的道德主体:操作性道德( operational morality)、功能性道德( functional morality)与完全道德主体( full moral agency)。所谓操作性道德指的是工程师意识到自身的价值观对于设计的影响以及他们对他人价值的敏感度。就像装有防止儿童使用的安全设置的枪支,这种机器虽然缺乏自主性与敏感性,但在设计中包含了美国国家专业工程师学会( National Society of Professional Engineers,简称NSPE) 道德准则以及其他的行业规范所包含的价值理念。功能性道德指的是能够评估自身行为的道德意义的智能系统,这种机器是具有伦理敏感性的机器。完全道德主体指的是具有自主决策系统及其情感交互能力的机器系统。

在笛卡尔看来,机器智能的想法在形而上学上是荒谬的,因为心灵与身体是不同的物质,机器是实物,是人类身体的延伸,在空间与时间上有广延性,心灵则是有意识的精神原子。具有实物的机器不能具有心灵的智能特征。按照人工智能先驱钮厄尔( Allen Newell)与西蒙( Herbert Simon)的观点,计算机程序是一系列的形式化符号,人工智能的符号进路趋向于把机器学习当成是对一套预先确定的概念重新组合的过程,除非工程师有意去设计系统,否则,计算机智能就是建立在一个没有欲望、动机与目标的逻辑平台上,不可能具有操作性道德和功能性道德,更不可能具有完全的道德主体地位,这种观点遭到机器伦理学家的反对。例如,阿萨罗( Peter Asaro) 在智能机器伦理中提到三点:“首先,如何设计机器人的行为伦理;其次,人类如何在人工智能伦理中承担责任;再次,从理论上讲,机器人能成为完全的道德主体吗?”〔9〕阿萨罗的第三点涉及到对于机器的道德主体地位的思考。如果技术人工物想成为道德主体,需要满足以下两个条件:首先,技术人工物必须具有道德身份;第二,技术人工物具有道德判断,具有道德选择、行为以及承担责任的能力。按照阿萨罗的观点,理性人具有道德主体地位,人工物只是具有道德调节作用,还不具有完全的道德主体地位。泰勒( Paul Tailor)认为道德主体的必备条件要满足以下五点:“第一,判断道德上正确或错误的能力;第二,权衡赞成和反对某些选择的道德理据的能力;第三,依据这种权衡的结果做出决定的能力;第四,拥有实现这些决定所需的意志和能力;第五,为自己那些未能履行义务的行为做出解释的能力等等。”〔10〕按照泰勒对于道德主体的界定,机器不具有道德主体地位。塞尔( John Searle)设计著名的“中文屋( Chinese Room)”思想实验,显示计算机可以在没有理解与智能的情况下通过“图灵测试”。荷兰特温特理工大学的布瑞( Philip Brey)提出“准道德主体( quasi - moral a-gents)”概念,他认为智能机器是准道德主体,作为道德主体应该符合以下三个特征:“有能力根据对与错进行推理、判断和行动的生物;对自己的行为应当遵守道德规范;对自己的行为负责,对自己的后果负责。”〔11〕这三个特征共同构成了道德主体的界定标准。只有理性的人才有能力进行道德推理,只有理性的人才有道德行为,只有理性的人才有道德责任感。不能分辨是非的成年人通常不被认为具有道德主体能力,智能机器可能具有道德决策能力,但大多数智能主体不具备道德思考的能力,因此,智能机器只能算“准道德主体”,不具有完全道德主体地位。塞拉斯( John Sullins)提出人工道德主体的必要条件是机器具有自主性、意向性与责任。如果机器具有人类一样的自主性、意向性,并且能够像人类一样承担责任,就具有道德主体地位。

从上述道德主体的界定标准来看,只有具有理性思维决策能力、能够独立的承担责任的理性主体才具有道德主体地位,而现在人工智能的发展只处于弱人工智能阶段,人类还不能设计出具有人类情感、具有独立意识、选择自由以及能够独立承担责任的机器。所以,机器不具有道德主体地位。这种思路是以人是唯一道德主体的思路来分析的,但目前学者对于道德主体的研究已经从人类拓展到动物甚至是技术人工物,对于道德主体应该具有新的界定与发展。

弗洛里迪( Luciano Floridi)与桑德斯( Sanders)直接承认智能机器的道德主体地位,进一步给出了人工道德主体的标准。按照弗洛里迪与桑德斯的观点人工道德主体应该具有交互性( interactivity)、自主性( autonomy)与适应性( adaptability)的特征。弗洛里迪与桑德斯提出对于所有X,X是一个道德主体,当且仅当X具有以下内容属性:“第一,X及其环境能够相互作用(交互性)属性;第二,X能够在没有与外部世界交互的刺激的情况下改变其状态(自主性);第三X能够改变其转换规则(属性)‘适应性’;第四,X能够起作用,例如道德上对世界的重大影响。”〔12〕机器如果在没有刺激的情况下具有改变状态的能力、具有改变“转换规则”的能力,就可能具有道德主体地位。按照这种说法,强人工智能机器符合这些条件,因此可以称之为人工道德主体。弗洛里迪与桑德斯认为道德主体的概念并不一定表现出人类主体的自由意志、精神状态或责任,机器可能具有道德主体地位。

通过以上分析,关于道德主体的标准是不一致的,关于机器是否具有道德主体地位也有不同意见,考虑到机器具有自主学习能力、可能具有自我意识、自由意志、人类情感与人类智能,因此,必须在智能机器的设计之初嵌入道德,设计者不能袖手旁观,应该关注机器的道德模型的构建,“赋予机器人伦理原则或者促进机器人解决可能预见的伦理困境,在机器人自主做决定的时候,提高他们的道德考量比重。”〔13〕

三、人工道德主体模型的构建

瓦拉赫与艾伦提出“道德图灵测试”,关注机器设计中的道德嵌入,他们提出“道德图灵测试”的两种进路,即“自上而下进路( top - down approach) ”与“自下而上进路( bottom - up approach) ”,所谓自上而下进路就是把德性论( virtue theory)、义务论(deontological theory)、功利主义( utilitarian theory)、正义论( justice as fairness theory)等伦理学理论的伦理标准、规范与原则嵌入到人工智能体的设计中,在此基础上,构建人工道德主体模型。阿西莫夫三定律是“自上而下”道德主体模型的模板,“任何讨论‘自上而下’式的机器人道德设计不能不谈阿西莫夫三定律。”〔14〕“自下而上进路”立足于创造一种环境能够让智能机器摸索自我判断的行为模式,比如,像“电车难题”思想实验就是根据不同的情境做出不同的道德选择。“自下而上进路”与“自上而下进路”的道德主体模型构建都坚持道德上“善”的行为标准,不同之处在于“自上而下进路”关注普遍性伦理学理论基础上的道德构建,而“自下而上进路”获得道德的方法是把规范化的价值当作机器隐含的内容。

弗洛里迪与桑德斯在承认机器的道德主体地位的基础上,提出人工道德主体构建的前提是区分道德问题与责任问题。人类能够避免“责任+道德行为=规定行为”和“没有责任就没有道德行为,所以就没有规定行为”的二分法。没有责任,只有道德行动的能力也是道德主体,环境与动物也可以具有道德主体地位,智能机器聪明、自主、能够独立于人类之外执行与道德相关的行为,因此存在“善的人工智能”与“恶的人工智能”的区别。所以道德主体构建要区分人类、智能机器、动物以及环境,这种道德主体的构建方式称之为人工智能的“分布式道德( distributed morality)”。

美国计算机学家迈克尔·安德森( Michael An-derson)、哲学家苏珊·安德森(Susan Anderson)夫妇与克里斯·阿尔曼(Chris Arman)从经典伦理学理论提出道德主体构建模型,他们认为机器伦理不同于计算机伦理,机器伦理关注的是机器对人类用户及其他机器的行为,因此,必须为机器添加道德维度,为了给机器增加道德维度,需要可操作的道德理论与道德原则,在此基础上,他们给出两个道德主体模型:基于边沁(Bentham)的功利主义的伦理主体模型和基于罗斯(Ross)义务论直觉主义伦理学的伦理主体模型。行为功利主义道德主体模型基于边沁的道德算术构建比人类规范的模型,把伦理原则编程为算术,让机器像人一样遵循行为功利主义理论。直觉主义者罗斯满足于将决策权交给决策者的直觉,但罗斯的理论强调表面责任,他认为没有义务是绝对的,也没有给出义务的明确等级,因此,在罗斯的理论下,如何做出道德决策是不清楚的。安德森夫妇与阿尔曼立足于为机器伦理奠定理论基础,他们基于行动的道德理论开发计算机系统,他们结合行为功利主义与义务论直觉主义的理论构建机器学习决策程序,他们的计算机模型克服了罗斯模型的不确定性,使用一种学习算法来调整对责任的判断,既考虑了表面责任,也考虑了过去对涉及这些责任的类似或不相似案例的直觉。

为了构建人工智能的道德主体模型,哲学家与伦理学家积极尝试,致力于在机器中嵌入人类“善”的道德。不同于悲观主义者认为人工智能将不可避免地制造出拥有巨大力量、行为不道德的机器人的观点。乐观主义者坚持用伦理学方法来排除恶意机器人的产生以及发挥作用。例如,鲍尔斯( Thomas Powers)在《康德机器的前景》〔15〕中意欲制造出康德式机器( Kantian machine)确保机器人行为符合道德规范;阿寇达斯( Konstantine Arkoudas)和布林斯乔德( Selmer Bringsjord)在《机械化道义逻辑向伦理机器人迈进〔16〕中论证了道义逻辑应用于制造道德机器的可能性;格劳( Christopher Grau)在论文《“机器人”中没有“我”:机器人功利主义者和功利主义机器人》〔17〕中讨论了功利主义模式下的机器人,格劳运用逻辑学理论或者伦理学理论在人工智能的设计之初嵌入人类道德。“理性机器嵌入了道德元素,如程序规则的行为,可能构成人工道德主体所需的理性。”〔18〕智能机器设计者应该在设计之初保持设计理性,对所设计的智能机器可能存在的伦理问题提前预判与评估,虽然有的学者反对智能机器具有意向性或者具有道德主体地位但均未否认技术物具有道德调节作用,也不否认技术可以通过设计改变人类的道德行为。

总之,智能机器具有不确定性,不管智能机器是否具有人类的道德主体地位,都应该对人工智能可能带来的危害做出防范,人类在智能机器设计之初把“善”的理念嵌入到人工智能中,使得人工智能操作系统不仅要遵守法律,还要遵守社会的道德规范,减少智能机器危害人类的可能性,发挥其对人类进步以及社会发展的作用。

参考文献

1〕Turing A M. Computing Machinery and Intelligence[J]. Mind,1950,59( 236) : 433 - 460.

2〕Johnson D G. Computer system: Moral entities but not moral agents[J]. Ethics and Information Technology,2006: 195 - 204.

3〕Sloman A. The Computer Revolution in Philosophy: Philosophy,Science and Models of Mind[J]. The British Journal for the Philos-ophy of Science,1978: 1 - 14.

4〕Danielson P. Artificial Morality: Virtuous Robots for Virtual Games[M]. Routledge,1992.

5〕Hall J S. Beyond AI: Creating the Conscience of the Machine[J]. I-sis,2008,99( 4) : 872.

6〕Allen C,Varner G,Zinser J. Prolegomena to any future artificial mor-al agent[J]. Journal of Experimental & Theoretical Artificial Intelli-gence. 2000,12( 3) : 251 – 261.

7〕Bostrom N,Yudkowsky E. The Ethics of Artificial Intelligence[C]/ / Frankish K,Ramsey W. Cambridge Handbook of Artificial Intelli-gence. New York: Cambridge University Press,2014: 316 - 334.

8〕Wallach W,Allen C. Moral Machines: Teaching Robots Right from Wrong[M]. Oxford: Oxford University Press,Inc. 2008: 91.

9〕Asaro P M. What Should We Want From a Robot Ethics? [J]. IRIEInt Rev Inf Ethics,2006,6( 12) : 9 - 16.

10〕Taylor P. Respect of Nature: A Theory of Environmental Ethics[M].Princeton: Princeton University Press,1986: 14.

11〕Brey P. From Moral Agents to Moral Factors: The Structural Ethics Approach[J]. Moral Status of Technical Artifacts,2014( 17) : 125- 142.

12〕Floridi L,Sanders J W. On the Morality of Artificial Agents[J].Minds & Machines,2004,14( 3) : 349 - 379.

13〕Anderson M,Anderson S. Machine Ethics[M]. Cambridge: Cam-bridge University Press,2011: 1.

14〕Wallach W,Allen C. Moral Machines: Teaching Robots Right from Wrong[M]. Oxford: Oxford University Press,2008: 91.

15〕Powers T M . Prospects for a Kantian Machine[J]. IEEE Intelli-gent Systems,2006,21( 4) : 46 - 51.

16〕Arkoudas K,Bringsjord S,Bello P. Toward ethical robots via mech-anized deontic logic[EB /OL]/ / M. Anderson,S. L. Anderson &C. Armen ( Eds. ) . Association for the Advancement of Artificial In-telligence Fall Symposium ( Vol. FS - 05 - 06) . Menlo Park,Cali-fornia: The AAAI Press. Retrieved from http: / /www. aaai. org /Li-brary /Symposia /Fall /fs05 - 06. 2005.

17〕Grau C . There is no 'I' in 'Robot': Robotic Utilitarians and Utilitar-ian Robots[C]/ / Machine Ethics: Papers from the Aaai Fall Sympo-sium Menlo Park,2006: 52 - 55.

18〕Anderson M,Anderson S L. Machine Ethics: Creating an Ethical Intelligent Agent[J]. AI Magazine,2007,28( 4) : 15 - 26.

(原载《自然辩证法研究》2019年05期)

哲学中国网