机器人的当代发展及其伦理问题_机器人论文

机器人的当代发展及其伦理问题_机器人论文

机器人的当代发展及其伦理问题初探,本文主要内容关键词为:伦理论文,机器人论文,当代论文,此文献不代表本站观点,内容供学术参考,文章仅供参考阅读下载。

文章编号:1000-8934-2013(06)-0113-00

中图分类号:N03

文献标识码:A

自20世纪30年代机器人出现至今,①短短几十年的时间里,机器人迅速改变着人类的生活方式、思维方式和认知方法。面对机器人行业的快速发展,比尔·盖茨曾指出:“机器人行业的出现……将与30年前计算机行业的蓬勃发展相类似。”[1]58-65作为计算机行业的重要缔造者,比尔·盖茨的洞见具有现实意义。今天我们回顾机器人几十年的发展历程,它正如“摩尔法则”②所预言的那样,其发展速度已与当今的计算机发展一样迅速。

计算机技术的不断更新推动了机器人技术的发展。从简单的机器人到今天智能化、仿人型机器人的出现和应用,它已极大地影响了人类的生产、生活。而面对机器人的发展,机器人自身安全和所引发的社会问题,尤其是机器人在应用过程中对传统伦理和道德关系的冲击和影响日益凸显。如何有效规避和预防这些问题,并充分发挥机器人向善的一面已成为人类必须面对的问题。

本文首先探讨机器人的定义以及机器人在当今和未来社会发展趋势。在此基础上,我们将探讨如何看待仿人型或自动化的机器人对人类伦理道德的冲击和影响,如何对规范机器人伦理或道德关系等问题。

一、机器人内涵的界定

对于机器人的定义,人们普遍接受这样一种观点:即靠自身动力和控制能力来实现各种功能的一种机器。国际上较为统一的定义为:“一种可编程和多功能的操作机;或是为了执行不同的任务而具有可用电脑改变和可编程动作的专门系统。”但在此定义下我们还是无法对机器人研究对象的问题达成一个共识。例如,有的观点认为机器人只不过是带有传感器和制动器并能与外部世界实现交互的计算机。然而,据此标准,任何连接打印机或能播放 CD的计算机都够资格称作“机器人”。很显然,机器人专家不会认可这一点。因此,我们需要一个能够使机器人与计算机和其它电子设备区分开来的更精确化、更合理的定义。

在此,我们把“机器人”定义为一个具有感知、思考和行为能力的指导型机器(engineered machine):“这样一个机器人必须有传感器,模拟认知和执行的能力。传感器体现在必须能够从环境中获取信息:模拟认知体现在具有一定认知能力的反应性行为,类似于人类的牵张反射;而执行能力须有必要的伴随程序,以及必要的驱动程序使得机器人具有行为力。一般来讲,这些驱动力将作用于整个机器人或其整体的某个组成部分(如手臂、腿部、或齿轮)”[2]335。

这个定义并不意味着机器人必须是机电式的,它也可能是生物式的,以及虚拟或软件式的。但是应排除完全依赖遥控的机器,因为它不具有“思考”能力,例如儿童玩具。也就是说,大部分儿童玩具不具有自我决策的能力,它们仅依靠人类输入及输出的指令进行活动。所以机器人必须具有一定程度的自治能力,或者能“思考”,并能根据环境自我决策。例如,美国空军的“捕食者”无人机(UAV),尽管主要依赖于人类的遥控,但其自身也能够做出一些导航决策,因此可以称其为机器人。

我们现在可以明确的是,“机器人”这个概念应该包括“思考”的涵义。即通过“思考”,机器能够借助传感器或其它途径,例如通过一组已编程的内部规则来做出自主决策。不过,该定义引出另一个问题:机器拥有的自主能力代表什么?在此我们可以把机器人的“自主力”阐释为这样一种能力:一旦机器的一部分被启动,那么该机器就能够根据现实环境进行自我反馈运作,且在一定时间内不受外部控制。总之,机器人除了须配备传感器,具有模拟认知和执行的能力之外,它还必须有自主思考的能力,具备自主决策的能力。只有在这个意义上,它才可以称之为机器人。

二、机器人的现状和未来

机器人通常执行“三个D”的工作,即枯燥(Dull)、肮脏(Dirty)、危险(Dangerous)的工作。例如,在自动化工厂,机器人一次次精确地、不耐其烦地按照重复的程序做相同的工作;军事无人侦察机能够突破人类的极限执行一次可达数十小时的空中巡逻任务;机器人在黑暗的下水道里能够做到排查管道泄漏和检测裂缝的任务等等。它们不怕危险,所以可以用机器人做探索火山和清理污染地点的工作,尤其在炸弹排爆和人质危机化解等方面,机器人凸显其重要性。

我们也可以更简单和宽泛地理解机器人。在当今社会,机器人已经超越了一般工具的意义,它能够突破人类所固有的弱点与局限性,在社会中扮演一个全新的角色。也就是说,半自动化或全自动化的机器可以更优秀地完成某项工作。如除了通常的“三个D”的工作,机器人还能克服人手抖动的局限,做精确化和难度大的手术。他们还能到达人类所无法到达的地方,比如海底和火星。作为人工智能的一种体现,它们更适于处理信息和完成对动作反应能力要求更高的工作,比如可以探测、识别并快速击落敌人导弹的美国海军方阵机器人CIWS就可以承担此类工作。可见机器人已经或者正在社会上扮演一个更为广泛的角色,具体表现在以下几个方面:

军事安全方面:带有威猛名称的军用机器人充斥在各大媒体中,如食肉动物、收割者、猎犬、粉碎机、八字胡、黑熊、全球鹰等。它们执行一系列的任务,例如监测和监视(空气、土地、水下、太空),拆除炸弹,抢救伤员以及攻击目标。可以说机器人执行着同军人类似的职能。除此之外,还有一个增长的市场——家用安全机器人,它可以发射胡椒喷雾或油墨颗粒,并把可疑情况的照片传送到其主人的手机上。

教育方面:科学家们把机器人应用在实验室的实验之中,比如收集较长时间内大洋表层以及海洋生物的相关数据(例如,罗格斯大学的“朱红色骑士(Scarlet Knight)”)和探索新领域(例如,美国宇航局的火星探测车),等。在课堂上,教育型机器人可以用于巡回讲座、教授课程(例如,外语,词汇,会计),考勤,并与学生进行互动交流等。

娱乐方面:应用到这个领域的机器人可称作娱乐型机器人,阿西莫(ASIMO),瑙(Nao),艾卡卜(iCub)等就是此类机器人的代表。尽管它们不像其在军事或制造业领域那样具有一个明确的应用目的,但是在认知(包括人类与人工两方面)、情感等的相关研究中,它们的存在具有重要意义。

医疗及保健方面:一些形似玩具的机器人,诸如看上去就像一个小海豹的帕罗(PARO),就是为治疗的目的而研发的,它具有帮助患者减少压力,激发认知活动,以及提高社会化的功能等。另外还存在一种医疗机器人——如达·芬奇手术系统(Da Vinci Surgical System)和阿瑞斯(ARES)可吞咽式机器人(Ingestible robots)——能够进行医疗协助或者实施较为困难的医疗程序。瑞芭(RIBA)、艾伟德(IWARD)、厄尼(ERNIE)等,则能充当护士和药剂师而执行相关职能。

护理与情感方面:机器人正越来越多地用于照顾老人和孩子,例如瑞曼(Ri-Man)、帕皮罗(PaPeRo)以及凯瑞波特(CareBot)、科瑞欧(QRIO),还有上文提及的娱乐型机器人,它们已经成为人类的伙伴。另外,2010年,“世界首个性爱机器人”罗克斯(Roxy)与世人见面,但是其缺乏自主“思考”的能力,传感器也几乎没有反馈能力,因此依照上文的定义,它其实并不能算是一个机器人。但是,这为高性能的智能机器人“情侣”的出现提供了一个想象的空间,我们相信随着技术的不断进步,这一类型的机器人会出现在人类面前。

环境方面:在当今社会,机器人在环境整治方面作用明显。例如收集垃圾,移除石棉,闻识有毒物质,识别受污染地区,清理核电站灾难后的放射物,收集气候变暖的相关数据,如此等等。

在未来,随着人工智能和人工生命的发展,我们期待机器人能够在社会中扮演更加复杂的角色。例如,充当具备生物识别能力,可以利用传感器进行远距离防护以及毒品检测和人脸识别的机器人警察;充当可以自主决策采取攻击行为的军事机器人,等等。尤其是随着机器人的日益微型化,其所造成的环境污染必然影响人类的生存。例如,“纳米机器人”的发展,如果大量的纳米机器人存在于人的体内,或者大气层中,那么与其所带来的益处相比,人类面临的危害可能会更大。如果能以比开关电灯和空调更有意义的方式来控制环境——超越今天的“智能家居”——那么,甚至整个房间或整座建筑物都可以看作是机器人。随着合成生物学、认知科学、纳米电子学的发展,未来的机器人可能建立在生物性基础上。人—机一体化,即半机械人(cyborgs),可能比现在更普遍。

三、伦理和社会问题

技术的进步往往领先于意识形态的发展。面对机器人技术的突飞猛进,相关的伦理道德标准却显得很苍白。早在1978年,日本就发生了世界上第一起机器人杀人事件。日本广岛一家工厂的切割机器人在切钢板时突然发生异常,将一名值班工人当成钢板一样操作从而致人非命。另外,1985年前苏联国际象棋冠军古德柯夫在同机器人棋手下棋获得3局连胜后,机器人突然向金属棋盘释放强大的电流,将这位国际大师杀死。后经分析,认为是电子雾使超级电脑内部程序出现了紊乱,产生强大电流。随着科技的发展,人们注定要面对这些随之而来的伦理困境。

由此看来,机器人的道德观念与伦理标准已成为人们不得不面对的问题。进入21世纪,随着仿人型机器人和智能机器人的进一步发展,自动化机器人出现。与之相应,人们对机器人伦理问题的研究也有了很大的进步。如美国哲学家科林·艾伦(Colin Allen)等编著的《道德机器:培养机器人的是非观》(Moral Machines:Teaching Robots Right From Wrong)以及由Ronald C.Arkin编著的《自动化机器人中致命行为的管理》(Governing Lethal Behavior in Autonomous Robots)等相继问世。另外,在最近几年,还举办了很多涉及机器人伦理方面的较具影响力的学术会议。如2012年在美国科勒尔盖布尔斯举行的“We Robot 2012”,它对于机器人伦理的发展具有很大的影响力。在这个会议上人们就机器人相关法律和政策问题发表了13篇论文,内容涉及伦理道德、法律规则、社会影响等方面。同年,由 Patrick Lin等编著的《Robot Ethics》出版。这本书对于机器人伦理问题,机器人设计理念,机器人应用,机器人的社会影响以及机器人自身的权利义务等问题都有较为详细的讨论。尽管追求功能最大化和技术最优化的工程师与伦理学家和哲学家的目标似乎相悖,但我们相信,最终提高机器人对于道德决定的敏感度与创建稳定、高效、安全的系统还是可以兼容的。而关于机器人伦理方面的标准也必定会随着相关技术的进步以及社会文明的发展而更为完善。下面我们就机器人出现所引发的安全和伦理等社会问题加以分析。

1.机器人安全问题分析

我们认为,一门新技术的应用首先应该保证的是其安全性。然而,诸如石棉、DDT③等新兴技术,人们在未进行全面健康和安全测试之前就投入到市场,则是技术走向恶的典型。现在纳米材料的产生也同样伴随着这样的争论。那么机器人是否也存在类似的问题呢?

机器人的安全问题与它们的软件和设计相关。计算机科学家和正常的人类一样也会犯错误,他们试图努力创造一个完美的软件。但是,通常在由一个团队中的程序员所写的数百万行代码的某处,很可能存在着错误和纰漏。例如,一辆汽车或者一个机器人,只要它们自身软件出现一点瑕疵,那么就可能会导致致命的结果。再如,2010年8月,美国军方的一架试飞超过23英里的无人驾驶直升机突然失控。违反空域的限制转向华盛顿特区,严重威胁了白宫和其它政府部门的安全;2007年10月,由南非陆军部署的一个半自治机器人火炮出现故障,并酿成9名“友好”士兵死亡和14人受伤的惨剧。专家们担心的是人类能否创造出足够先进的软件装备军用机器人,消弭其威胁性。

除了以上谈及的军用机器人在应用过程中所出现的大量事故案例之外,在日常生活中,机器人造成的人类死亡事件也有发生。例如,1979年的美国汽车工厂发生的机器人伤害事件,[4]A-10这也是首个由机器人所引起的事故。

另外,黑客攻击是当今计算机安全领域共同关注的话题,该问题也是机器人伦理需要关注的重要问题。机器人在恶劣环境中所特有的承受强度、访问能力以及操作能力使其价值日益彰显出来,也正因为如此,机器人会被一些不法之徒利用而转向人类社会的对立面。正如今天的智能手机和电脑一样,随着机器人的网络化以及应用普遍化,该问题将会变得更加严峻。事实上,机器人技术的工作原理并不是很难掌握的,当今世界已经有包括伊朗等在内的超过40个国家拥有了开发军事机器人的技术,而最令人担心的是,假如这些军事机器人被用于反社会的角色,那后果将不堪设想。

因此,在该领域存在这样一些问题:我们能否创造出一种鉴别细微差异的智能机器,它能够严格基于现实场景而理解人类语言,并能清晰辨认冰激凌和手枪之间的差别。另外,用编程解决安全性问题的方案和制造它们的限制是什么?怎样才能保证机器人被安全地投放到社会和市场之中?我们如何才能防止机器人沦为杀人狂,能保护机器人免受黑客和别有用心的人攻击和利用,并能在技术和社会效应上保持一种平衡状态?如何在实践中解决这些规则性的问题,即用这些方法能不能确保机器人只执行相关安全性的信息指令?

2.法律与伦理问题分析

考虑到机器人犯错的风险,对于伤害性结果应由谁来负责的问题法律也没有明文规定。例如,软件中的最终用户许可协议没有相应的法律规定;又如,在军事机器人领域,整个供应链中存在一系列可能会被追究责任的人,包括程序员、制造商、武器的法律审查小组、军事采购官、战地指挥官,对如何追究其责任,法律没有明文规定。

随着机器人自主化趋势的发展,它的人格化特征逐步拓展,相应地它们就应该承担一部分责任。如果这看起来太过牵强,那么合成技术体的出现则会让人重新思索生命的涵义。这使得生物体和非生物组织之间的界限变得模糊不清。另外,我们正从事把计算机和带有生物大脑的机器人“捆绑在一起”的工作。那么,具备一个有意识的人类大脑(以及它的身体)的机器人理应具有人格权利。如果一些(未来的)机器人或半机械人满足必要的条件而拥有了权利,那么哪些权利是他们所应有的呢,人类如何才能管理这些组合的权利,哪些才可以公平划归到生物与技术的能力范围内?这些问题目前还是悬而未决的。

从短期来看,最主要的考虑是如何用法律或道德的准则来约束机器人以减少伤害。当然,说起来容易真正做起来却很困难,因为法律能够根据机器人的实际行为来定罪,机器人却意识不到这一点。对于机器人程序如何设计我们暂且不谈,可我们在使用机器人的过程中必须遵循法律和道德的规则,尽管目前的这些规则可能不甚清晰或未经过测试。例如,地雷是一个有效的杀敌武器,但却可以不问青红皂白地滥杀无辜,不管对方是士兵还是平民。这个存在了几百年的武器,直到1983年,在某些区域的战争中才被禁止使用。同样,使用军事机器人未能充分考虑与论证法律和道德方面的影响,也许在多年后才会让人其不符合法律或违背道德之处。

当然,世界各地道德规范和文化背景的不同导致了不同的法律定位。从这个意义上来说,很难制定一个标准的机器人规则。仍以上面所讲的地雷的例子为证,美国针对地雷所产生的双面影响就拒绝签署不使用地雷的条约。但随着全球化进程的加快,人们对道德标准也逐渐有一个共同的认识,从这个角度来讲对机器人规则的统一性标准应该还是有所期待的。

3.社会影响

伴随着机器人技术的突飞猛进,我们的社会将如何变化?正如网络革命中爆发出来的社交网络和电子邮件功能一样,机器人也可能会影响人与人之间的交际功能。现在机器人已经可以照顾老人和小孩,尽管从长远来看存在一些不足,但这已经是机器人对社会发展过程中人与人关系的一大挑战。另外,机器人在未来很有可能会成为我们的伴侣,而这个伴侣善于倾听,还有从不会撒谎……这样一来,机器人在我们的社会中会扮演越来越重要的角色。至于它所带来的社会影响,尤其是负面的影响,比如对心理健康,行动能力等有无伤害,这一切只有在一个较长的历史时期才能显现出来。

另外,社会影响也包括对环境造成的损害,比如,在计算机行业产生的“电子垃圾”,或制造机械过程中产生的重金属、有毒物质等。机器人的制造和使用,尤其是稀土元素的使用,可能会加剧环境污染。而网络机器人的大规模应用必然会增加有害物质的辐射,从而影响人类健康。

所以,在这个领域我们面对的问题包括:机器人技术的发展是否应该考虑到所有可能的情况?如何评估机器人发展带来的双面影响?一些重要或危险的工作是否要机器来接管?如何对待应用机器人所带来的工人失业?未来我们在应用机器人的问题上会产生什么灾难性的后果?是否有一种预见性的防护措施?等等。

四、我们的评论

意大利的一位机器人工程师Gianmarco Veruggio首先提出“机器人伦理学”这一专业术语。在他看来,与机器人相关的诸如范围、型号以及机器人研发的速度等问题必须在危险或危机发生前予以控制。从而规避诸如电影“终结者”④场景中的机器人控制人类的结果。

如何有效避免人机矛盾,实现人机之间的协调发展,这不仅需要技术的进步,还需要机器人伦理学这一理论的建构。作为应用伦理学的一个新兴的领域,它理所当然要面临一些问题,而当问题出现时人类如何应对和解决才是根本。

在我们看来,这些问题包括:

第一,机器人伦理学涉及道德和哲学等层面。在哲学和伦理学的应用中,通过“和谐”这一原则的贯彻,有利于机器人伦理的纵向深化和横向延展,从而有助于实现机器、人类与自然的和谐共生。

在机器人的应用过程中,作为一个责任的载体,它必须遵守一定的道德规则,并为自己的行为后果拥有最起码的认知能力。同时,道德规则的制定和伦理标准的实行必须遵循“不伤害”⑤的原则,[5]19并能够存在一个相关的评判和制裁体制。从而在这一原则基础上,致力于寻求机器和人类、机器和自然之间的“和谐”。

传统伦理学以“善”为最根本的指导原则,但发展到今天,单纯以善为指导的伦理标准已越来越不适应社会的发展以及人类当下的道德评判标准。随着科学的进步,机器人的应用逐渐融入到人们的生产生活之中,应用伦理学的出现及其所推崇的“不伤害”原则,也随之深入到人类的道德观念里。但这种“不伤害”的原则对于机器和人、机器与自然之间的相处却存在一些弊端。例如片面性,也就是说,不伤害主要是考虑并体现了一方的利益,并没有考虑另一方的利益,对于日益进步的,具有自主性、或半自主性的机器而言,尤其是类人型、智能化机器人来说,为了实现人机之间的互相尊重,机器与自然之间的同生共长,这就需要一个更加有效的原则,即“和谐”的原则。这一原则不仅体现在机器与人之间,更为重要的是体现了机器、人与自然三者之间的和谐。我们上文提到,科学进步的同时也带来了环境的破坏,尤其是纳米机器人的发展对于环境的破坏,而环境破坏对于人类的损伤是非常严重的。因此,“和谐”原则的提出和贯彻,有利于机器人伦理的发展,从而有助于实现机器、人类与自然的和谐共生。

此外,机器人伦理的发展根源与计算机伦理学及其哲学思想,同时也与心理学、社会学、经济学、政治学等学科紧密联系。如何使各门学科更为有效的交叉融合,相互促进,这也是“和谐”这一原则的关键之处。

第二,不同文化、宗教和社会意识形态的存在使得机器人伦理学的标准也不尽相同。而随着生产力的发展和社会的进步,各种文化的冲突、碰撞和融合极大地促进了人类意识领域的趋同感。因此,确立统一的伦理学标准应该是有希望的。

伦理标准的制定必须是在民主的基础之上,通过集体的决策程序,调动全社会的集体智慧对道德冲突和伦理标准差异的方面进行权衡,从而形成一种普适性的标准。当然这一民主的决策过程并非是多数人的赞同原则,而是需要所有人认可的普适性原则。此外,标准的制定须建立在公平公正和谐的前提之下,同时也必须选择那些素质较高和专业基础较为扎实的专家参与到民主决策中来,并根据严密的理论建构程序,通过在相互尊重的基础上理性交谈与对话来形成一种共识性的标准。这一过程的实现需要有一个理论建构的平台。机器人伦理是立足于机器与人、机器与自然之间关系和谐发展的应用伦理学的一个分支,但由于其自身特点的存在,例如仿人型、生物型以及智能化等特点与普通的应用伦理存在差别,因此,需要建立机器人伦理专业委员会,从而实现机器人伦理标准的制定。无论是应用伦理学所倡导的“不伤害”原则,还是我们所提出的机器人伦理学的“和谐”原则,它都必须建基于道德共识下的哲学和社会文化,只有在此基础之上形成的有关机器人伦理方面的相关准则才有可能是共识性和普遍认同的。

第三,人类在设计机器人的过程中必然要把个人的设计理念融入到机器人的智力中。这样机器人就会是多种文化或不同个性的研究者的一种累积的成果,从而使得机器人的个性表现出“多元化”的特点。同时,机器人的智力是一种学习的智力,它必然通过设计者们智力水平的叠加而累积起来并自我发展,这样机器人就可能发展成具备“高智商”的多元体。

综上所述,技术的发展往往要先于伦理道德发展的脚步,对于机器人伦理标准的制定需要有前瞻性的建构模式。我们提出的机器人伦理的核心原则是“和谐”,这一原则并非仅仅是机器一味地让位于人类、大自然让位于机器与人类,而是通过机器、人类与自然双向互动达致和谐。尽管目前机器人技术发展还不充分,但我们应该有超前意识,从道德的角度规范机器人研究者和使用者,用一套人类普遍认可的伦理规范约束机器人,使其能最大限度地为人类服务。

注释:

①1920年捷克斯洛伐克作家卡雷尔?恰佩克在他的科幻小说《罗萨姆的机器人万能公司》中,根据Robota(捷克文,原意为“劳役、苦工”)和Robotnik(波兰文,原意为“工人”),创造出“机器人”这个词。

②摩尔法则又称摩尔定律,由英特尔创始人之一戈登·摩尔(Gordon Moore)提出来的。其内容为:当价格不变时,集成电路上可容纳的晶体管数目,约每隔18个月便会增加一倍,性能也将提升一倍。

③DDT(Dichlorodiphenyltrichloroethane)为白色晶体,不溶于水,溶于煤油,可制成乳剂,是有效的杀虫剂。为20世纪上半叶防止农业病虫害,减轻疟疾伤寒等蚊蝇传播的疾病危害起到了不小的作用。但由于其对环境污染过于严重,目前很多国家和地区已经禁止使用。

④《终结者》——由著名导演詹姆斯·卡梅隆(James Cameron)拍摄制作的电影,包含独到深刻的科幻剧情与深含哲学的科学理念,一经推出就以独特的题材与剧情赢得了观众的口碑。

⑤甘绍平关于应用伦理学最核心的价值原则是“不伤害”原则的思想给了我们以较大的启发。

标签:;  ;  ;  ;  ;  ;  ;  

机器人的当代发展及其伦理问题_机器人论文
下载Doc文档

猜你喜欢