当前国外机器人伦理研究综述论文

当前国外机器人伦理研究综述

苏令银

(上海师范大学 马克思主义学院,上海200234)

摘 要: 在国外已有文献中,关于机器人(尤其是智能机器人)的主要伦理问题近年来一直被热烈讨论。文本在考察已有文献的基础上指出,当前国外机器人伦理研究重点探讨了两种类型机器人应用中的伦理问题:一是与人类和平相处的服务型机器人;二是用于战场上作战的致命型机器人(也称军事机器人)。从研究趋向看,当前国外机器人伦理研究重点关注了颇受争论的两个问题:一是关于机器人道德地位的争论;二是关于机器伦理框架建构的方法论思考,尤其是把伦理准则嵌入智能机器的方法。

关键词: 人工智能;机器人;机器伦理;社会性人-机互动;自主系统

一、引 言

最近十年经历了一个真正的“机器人口爆炸”时代。毫无疑问,机器人能够减少人类做各种无聊的工作(例如,地毯吸尘)或者危险的工作(例如,处理炸弹)。服务型机器人的迅猛增长导致人们重新思索机器人在人类社会中的作用。机器人不再是仅仅回应人类需求的“奴隶”式的机器,它们被承诺赋予一定程度的独立性和决策能力。甚至有人希望机器人能够成为人类的“伙伴”。因此,大量伦理问题就出现了。多年来机器人被应用于工厂和实验室,人们对其颇为熟悉,当下,在与机器人的日常交互中个人可以开始权衡其益处与风险。伴随着 “福冈世界机器人声明”,维卢乔(Veruggio,2005、2006)提出“机器人伦理”的理念(例如,下一代机器人将有助于实现一个安全、和平的社会)以及“机器人伦理”路线图(Veruggio,2006)(促进科学家们希望监测当前机器人技术使用影响的跨文化讨论),已经有很多措施来解决由机器人应用蔓延所引起的问题。维卢乔调用人类学家丹妮拉·瑟奎(Daniela Cerqui)在机器人社区中描绘的三个主要伦理立场:(1)对伦理不感兴趣;(2)对短期内伦理问题感兴趣;(3)对长期的伦理问题感兴趣。

道德规范是提高人们对大量存在于机器人领域中伦理意识的诸多尝试中的一种,它提供了普遍的道德行为指南。首先,机器人的道德规范提醒工程师对他们参与设计的人造生物所做的行为负责。根据类似的想法,墨菲和伍兹(Murphy & Woods,2009)提出修改著名的阿西莫夫定律,他们认为“阿西莫夫定律是以机器人为中心的,以修改的方式来提醒机器人研究人员和开发人员的职业责任。例如,第一定律是被替换为一个人也许不能操控一台人机工作系统无法满足最高安全法律和专业标准及道德规范的机器人”。上述所指的是“责任归属”问题,也就是当一台机器出现伤害事故时,制造商、设计师、所有者或用户的责任分配问题。这是一个在很大程度上开放的问题(P.A.Mudry,S.Degallier, A.Billard,2008),在某些情况下,它可以通过立法监管到位,而在其他情况下,可能没有一个简单的解决方案。

短期的作用和长期的影响似乎至关重要,沿着这条线索,机器人伦理研究中着重评估在当前一些最著名的机器人的应用中很多开放的伦理问题,且为了避免一些哲学纠纷,研究大多将问题锁定在技术本身。具体来说,机器人伦理研究不会探讨机器人是否有一天能被赋予任何一种社会、文化、伦理或法律权利,是否会创造感知机器人(R.Kurzweil,2005)、奴役他们(S. Petersen,2007)或者创造一些会消灭人类的机器人(N.Bostrom,2002)。

此外,当前国外机器人伦理研究关注的是当(半)自主系统出现故障或损害人类时,法律和道德责任归属的一般问题,随后提出一系列机器人运用过程中所引起的伦理问题。尤其是重点关注两种极端:与人类和平相处的服务型机器人和创造出用于战场作战的致命型机器人。当前国外讨论机器人伦理问题出现了两个新的趋向。

二、机器人伦理争论的核心问题

通过查阅已有文献,发现当前国外机器人伦理研究争论的一个核心问题就是“究竟谁应该对机器人的行为承担责任?”人们普遍认同,机器人没有能力承担道德责任,尽管一些人反对这种观点(J.P.Sullins,2006)(R.C.Arkin,2008;D.Dennett,1996;K.E.Himma,2009)。因 为 计 算机像人们当前所认为的那样并没有意图(B.Friedman and P.H.Kahn.Jr,1992)。因此,人们可能会问: 如果这样的半自主系统伤害到人类,那么谁应该对机器人的行为负责?

马提亚(Matthias,2004)给出了最简单且可能性最大的答案。他认为在大多数情况下,没有人能够承担机器人故障的责任。根据马提亚所言,原因在于控制的概念克服了责任归属。简单来说,系统的自主性越大,人类控制机器所涉及的责任就越少。马提亚甚至声称,因为自主性意味着程序员一方某些归责的失控,因此减少了程序员的责任。他认为,先进的编程技术(如神经网络、进化计算),使主体的学习能力得以加强。因此,离开原来的程序,程序员就不可能详尽测试他所发明的东西的行为。换句话说,程序员赋予机器人高水平的能力,但是他无法预见机器人在与人类相处过程中所出现的全部可能的行为。因此,当问题出现时,程序员不会承担责任。马提亚表明我们应该广泛采用保险的方法,以此作为一种解决方案,在事件发生并且没有人承担全部责任时,能够让所涉及事件的所有人共同承担。

相比之下,马里诺和坦布里尼(Marino &Tamburini,2006)声称马提亚的陈述也许偏题太远了。在他们看来,当危害行为发生时操控机器的人并不是一个(或唯一)用来衡量责任归属的标准。人们认为工程师不能完全免于责任,唯一的理由是他们不能对隐藏在机器人动作中的因果链进行完全掌控(Marino,2006)。建议使用习惯的法律规范来填补马提亚所强调的“责任空白”。例如,在某些情况下,父母和教师未能给予孩子足够的教育、看护和监管,这就需要他们对孩子的破坏行为负责,即使没有明确的因果链将他们与破坏性的事件直接关联(Marino,2006)。阿莎罗(Asaro,2007)提出了一个类似的解决方案,他在机器人与任何其他“完全不起眼的技术产品”(如烤面包机或一辆车)之间画了等号。他指出,英美民法规定这些技术产品所引起的破坏性事件也将适用于机器人所产生的破坏。例如,如果一位制造商意识到机器人所产生的危险,但是却未能告知消费者,他可能被控告“未能警示缺陷”。即使生产者不知道其中的危险,他也会被指责“考虑不周”,这意味着制造商未能及时预见到他的技术所带来的一些容易被发现的威胁。阿莎罗指出,缺点是这不是民事法律,刑法几乎不适用于机器人,因为刑事诉讼只能由道德主体发起。一位道德主体能够理解法制社会所传达的道德概念。没有道德主体,社会将没有债务,不当行为所致的犯罪将会被偶然事件所掩盖。而且,只有一个道德主体可以被惩罚和改过自新(Asaro,2007),这种假设基于道德主体拥有坚持和改正道德观念的能力。一些学者已尝试触及到赋予机器人道德责任的问题。索勒姆(Solum,1992)和哈纳德(Harnard,2009)提出使用某种道德测试来裁决机器人是否需要在法庭上负责。

最后的争论围绕责任归属问题展开,责任归属问题的讨论以机器人的道德责任为中心。弗里德曼(Friedman,1995)研究了懂得电脑技术的个人是如何把责任归咎于技术的。他认为尽管大多数研究意识到计算机的识别算法和确定性性质(如,他们缺乏自由意志)。即使这些机器被人监控着,约有五分之一的研究仍旧一直归咎于机器的错误。换句话说,有相当多数量的人们倾向于把责任推到机器身上。尽管他们普遍认为机器不应该被追究责任,因为它缺乏自由意志。弗里德曼和卡恩(B.Friedman & P.H.Kahn.Jr,1992)提出两种情况确定机器也许会承担一些道德责任。第一,可以考虑一种情况:人们听取由计算机提出的建议或者接收一个人通过机器所传达的命令;在第二种情况下,人造特工伪装成人类,因此可能欺骗他人相信他们是真正的人类。第一种情况如上所述,弗里德曼和卡恩以APACHE系统为例(R.W.S.Chang,B.Lee,S.Jacobs,& B.Lee,1989)。这是一个复杂的计算机诊断工具,它被置于医院的环境中,这个计算机诊断工具可能导致人类用户道德责任感减少。发生这种情况是因为随着时间的推移(APACHE性能较好),操作员可能增加了在APACHE的推崇上的信任,并在使用效果上增加了它们在医学界的权威。结果,第一种情况发生了,护理人员不自觉地考虑机器的建议决策。因此,对任何人(甚至是一个有经验的医生)来说都难以对其进行质疑。作为解决此类问题的潜在办法,弗里德曼和卡恩建议与人类互动的计算机系统应该以人造机器人总是披露的方式设计,以便人类对他们本身而不是机器所承担的道德责任保持清晰的理解(B.Friedman& P.H.Kahn.Jr,1992)。一些研究者在考虑当前运用法规来应对未来服务型机器人所产生的潜在威胁时,思考了如何为责任归属问题找到一些解决方案。

三、机器人伦理问题研究的重点

在考察已有文献的基础上,我们发现当前国外机器人伦理研究重点关注两种类型的机器人应用过程中出现的各种伦理问题:一种是与人类和平相处的服务型机器人,另一种则是用于战场上作战的致命型机器人(或者称战争机器人或军事机器人)。

(一)服务型机器人的伦理问题

4.自上而下与自下而上的方法

为了阐明上述争论,学界开始对与现有的自主机器人系统互动时所产生的人机关系的类型加以研究。在四项一系列的研究中,卡恩和他的同事研究了儿童与爱宝(AIBO)机器狗的社会和道德关系。第一项研究中,与学龄前儿童的互动和推理的机器狗爱宝被比作一只毛绒狗(P.H.Kahn Jr, B. Friedman , D.R. Pérez-granados & N.G.Freier,2004);第二项研究中,与孩子们互动与推理的机器狗爱宝被比作生物活狗(G.F.Melson,P.H.Kahn Jr,A.Beck & B.Friedman,2009);第三项研究中,与自闭症儿童的互动与推理的机器狗爱宝被比作非机器狗(C.M.Stanton,P.H.Kahn Jr,R.L.Severson,J.H.Ruckert & B.T.Gil,2008);第四项研究分析了在网络论坛上人们所讨论的与爱宝相关的3000条帖子(B.Friedman and P.H.Kahn.Jr & J. Hagman,2003)。这四项研究一起提供的证据表明,儿童和成人能够而且经常意识到的机器人只是作为一种科技出现,他们对机器人拥有强烈的社会概念,并且能够与机器人建立有意义的关系。例如,论坛在线讨论的研究中,认为爱宝只是一种科技的成员占75%、认为它栩栩如生的占48%、有思维状态的占60%,认为爱宝是社会成员的占59%。然而,在这四项研究中,研究人员却有不同的发现,人们视爱宝为道德方面与其他事物的观点有不一致性。例如,只有12%的帖子肯定爱宝有道德地位,包括爱宝是拥有权利、值得尊重、能够引起道德方面问题、可能是护理的接受方、又或者可能是道德责任的承担方或应受谴责的一方(B.Friedman and P.H.Kahn.Jr & J. Hagman,2003)。相比之下,梅尔森(Melson,2009)等人的研究发现,一方面,孩子们认为生物活狗(86%)比爱宝(76%)机器狗应该获得更高的道德地位。更为惊人的是如此数量之多的孩子(76%)没有对机器狗的道德地位给予支持。导致这些研究不一致的一种解释是建立道德地位的方法很少,并且这些方法本身很难解释。例如,在梅尔森等人的研究中,五分之二的道德问题是“如果你认为你不喜欢爱宝了,是否要摧毁爱宝?”“不可以”的回答解释为表明拥有道德地位。但回答“可以”的人仍能作出相同的判断:他会扔掉或摧毁一台昂贵的但是工作上没有任何道德问题的电脑(例如,他很浪费)(G.F.Melson,P.H.Kahn Jr,A.Beck & B.Friedman,2009)。

其他反对这种观点的人,提倡使用案例推理(CBR)的方法。他们推理人们可以在没有学习道德准则的情况下仍然按照道德的方式行动(这等同于一个人即使在没有接受任何正式的语法教育的情况下,仍然可以说一口流利的语言一样(R.Rzepka and K.Araki,2005)。例如,麦克莱伦(Mclaren,2006)制造出案例推理(CBR)的伦理推理机,安德森(Anderson)创造了一种机器学习系统,这种学习系统由伦理学家提供的规则自动 生 成(M.Anderson,S.L.Anaderson & C.Amen.MedEthEx,2006;M.Anderson,S.L.Anderson,2007;M.Anderson,S.L.Anderson & C.Armen,2006)。阿金建议使用这种方法来研发一名军事顾问(R.C.Arkin,2008),这位军事顾问将为机器人的致命武力提供指导。在之前的研究中(R.C.Arkin,2008),阿金使用协商/反应自主机器人的体系结构,为伦理控制提供了理论和形式体系。他认为对行为映射的刺激,会随着伦理约束条件不断扩展,以确保机器人能有恰当的回应(符合法律)。最后,霍纳瓦(Honarvar,2009)用类似案例推理(CBR)的机制来训练人工神经网络(ANN),以区分在信念-愿望-意图的(BDI)框架中什么是在道德上可以接受的(A.S.Rao,M.P.Georgeff,1995)。例如,他用这个框架来论证电子商务应用中,销售-代理的道德知识(A. R. Honarvar &N .Ghasem-aghaee,2010)。基于功利主义的特殊机器人伦理系统是很容易实现的,它使用数学计算来确定最佳选择(通过计算和使“善意”最大化来实现,然而其定义的是所有操作)。但是,由于功利主义重视整个社会的价值益处。因此,它忽略了生命蕴含在社会的每个个体中(J.Rawls,1999),这种道德运算不能保护每个个体的基本权利(R.C.Arkin,2008),这也是学术研究的兴趣所在(C.Grau,2006)。而且,在文献中可以发现,某种由功利支持的实际工作依然存在,正如前面所提及的大多数案例推理(CBR)系统提出的假设:一个算术值是确定道德行为的主要依据(M.Keefer,2003)。

在另一项研究中,费尔-塞费尔和马塔里奇(Feil-Seifer & Mataric,2008)用一个可以自动吹大的机器人,以实现儿童—看护者—机器人的三人交互。机器人并不是实际进行一些社会行为,其自动吹大的行为更多的是由儿童与看护者之间的互动引发的。在类似儿童—父母—机器人三者的场景中,柯子玛(Kozima,2007)和他的同事们进行了一系列研究。此研究运用一个简单持续的双摆机器人-球-脸来进行联系,这三方的移动蕴含着情感表达。这些研究安慰了罗宾逊等人,他们发现,自闭症儿童在这种三合一的场景中,自发参与社会活动并表达情感,否则他们倾向于逃避(H.Kozima, C.Nakagawa & Y.Yasuda,2007 ;D.Feil-Seifer and M. Mataric,2008)。一项关于自闭症儿童与爱宝互动的比较研究显示,自闭症儿童能够增强与爱宝的沟通能力,在这项研究中爱宝不只是一个简单的机械玩具(C.M.Stanton,P.H.Kahn Jr,R.L.Severson,J.H.Ruckert & B.T.Gil,2008)。

这些研究作为一个整体似乎表明,与那些自动拥有社会习惯的机器人互动玩耍能够帮助自闭症儿童培养更多的社会技能,而这些社会技能一直是自闭症治疗意图想要做到的。这样的一个有机器人帮助的治疗并不是想要培养孩子对机器人的感情,它也许会产生一些潜在的副作用。鼓励自闭症儿童与毫无感情的机器人进行情感互动是否在伦理上是正确的问题仍然存在。然而,“从一个患有自闭症的人的角度和她的需求来看,这些伦理问题真的相关吗 ? ”(K. Dautenhahn & I.Werry,2003)

笔者针对本次研究,进行了问卷调研。共回收问卷335份,其中有效问卷326份,对有效问卷统计后得知,被调查者对移动学习概念较为了解;93.2%的学生对移动学习持赞成观点,6.8%的持无所谓态度。可见,在大学英语中采取移动学习模式是可行的。基于此,笔者认为大学英语移动学习应达到以下目标:(1)能熟练使用手持端电子设备听读英语。(2)形成良好的大学英语听读习惯。(3)提高学生的语言组织与概括能力。(4)拓宽大学英语移动学习的新方法。

同样,将机器人宠物用于治疗老年人疾病,它们可以为渴望陪伴的老年人提供一定程度的陪伴。海豹机器人帕罗(Paro)也许是机器人运用中最好例 子(T.Shibata,M.Yoshida & J.Yamato,1997)。瓦达(Wada,2008)等人对帕罗作为一部分治疗手段进行了拓展,使其在全球范围内的儿科病房和老年机构中得以运用。结果表明,与帕罗的互动提高了病人和老年人的正面情绪,减少了他们的压力(K.Wada & T.Shibata,2007),使他们更加积极地加强彼此之间和与他们的管理者之间的沟通。脑电图测试的初步结果显示,这种机器人治疗手段可以改善那些痴呆症患者的大脑活动模式(K.Wada,T.Shibata T.Muaha & S.Kimura,2008)。此外,研究发现,帕罗和老年人之间长期互动的影响持续了一年多(K.Wada,T.Shibata, T.Saito,K.Sakamato & K.Tanie,2005)。虽然上述结果赞成使用机器人陪伴老年人,夏基(Sharkey)却提出了一个更为谨慎的论证(N.Sharkey,2008)。在他看来这些代替品伙伴并不能真正缓解老年人的孤独,人们会被与他们相关的缺乏真实性的设备所欺骗(R.Sparrow,2002)。此外,甚至明确帮助老年人在自己家里保持独立的机器人(J.Forlizzi,C.DiSalvo & F.Gemperle,2004)(例如用于提醒病人服药的机器人),也可能导致老年人只被机器照看的情况。然而,老年人的心理健康在很大程度上依赖于和人类的接触,这需要照顾者提供(R.Sparrow & L.Sparrow,2006)。

当前由于机器人应用而引起伦理问题讨论的另一个例子是机器人乳母(N.Sharkey & A.Sharkey,2010)。这样的努力主要出现在韩国和日本用以发明更复杂的机器人,这样的机器人不仅可以监测婴儿(例如日本电气股份有限公司的个人合 作 伙 伴 机 器人(Fujita,S.I.Onaka,Y.Takano,J.U.N.I.Funada,T.Iwasawa,T.Nishizawa,2005),而且也会给机器人配备足够的自主权,能够在不同寻常的情况下呼叫人类的看护者。毫无疑问,孩子们将会很乐意花时间与儿童保育机器人玩耍。机器人研究人员在提供机器人与孩子持续多样的互动方法方面,设计的进步可能需要几个月甚至很多年(T.Kanda,T. Hirano,D.Eaton &H.Ishiguro,2004 ;N.Mavridis,C. Datta,S.mami,A.Tanoto,C.BenAbdelkader & T.Rabie. FaceBots,2009;N.Sharkey & A.Sharkey,2010)。如果孩子每天几个小时无人接触,这也许对孩子的身心发展是有害的。目前机器人宠物不像托儿所看护者看孩子的方式那样来参与孩子成长(N.Sharkey,2008)。这是很难推测的,就像这种机器人所造成的心理影响对儿童发展可能是未知的。一些人尝试通过报告得出结论,这篇报告关于年幼猴子的发展完全依赖于与人造的看护人员进行互动的第一年所致的严重的社会紊乱(Mason W A, Berkson G,1975;D. Blum,2002;N.Sharkey & A.Sharkey,2010)。最后,涉及到法律问题。有许多国内和国际的法律来保护儿童免受虐待,例如联合国儿童权利公约(United Nations,1989)。但目前没有与使用机器人来照顾孩子相关的准则或法律(N.Sharkey And A.Sharkey,2010)。此外,一些人认为由于国家之间的文化差异,提供统一的道德准则来规范机器人的使用也许是不合适的(S.Guo and G.zhang,2009)。

(二)致命型机器人的伦理问题

当前国外机器人伦理研究除了关注这些伦理问题源自当前或者未来可以预见到的应用于教育与医疗方面的服务型机器人,更直接与当前应用于军事的机器人的伦理问题相关。 即使全自动的机器人还没有像人们讨论的那样出现在战场上,风险和益处的介绍可能对战争至关重要。此外,由于军事技术常常应用于民事,如维持治安(P.Asaro,2008;N.Sharkey,2009),讨论与军事机器人相关的伦理问题也可以在更广泛的背景下展开。

目前,使用机器人设备攻击人类的决定仍由操作员来完成。这源于确保人类仍旧主导决策权的渴望,但这并不是技术的必要性(P.Asaro,2008)。很明显,将人们与在战场上全自动的武装系统分离开来的行为比较稀少。即使所有的武装机器人都为人类所监管,人们可能依然想知道人类对这些机器人的控制程度。例如,在空战中,系统必须充分自动以确保有效操作(US Department of Defense,2007)。夏基预言,战场上随着机器人操作数量的增加,它们也许会超过人类士兵(J.Rawls,1999)。他认为人类同时操控所有这些机器人是不可能的,到那时机器人将需要全自动来完成自我操作(N.Sharkey,2008)。

被普遍认可的伦理问题是,随着自主作战机器人数量的增加,对与其所关联的士兵和无辜人群加以区分。这个区别的核心在于“正义战争理论”和“人道主义法律”(M.N.Schmitt,1999), 它们规定只有战士是合法的目标,禁止攻击其他非法目标(N.Sharkey,2010;P.Asaro,2008)。夏基理所当然地认为,机器人没有这种人工识别能力,甚至在密切接触遇到时也不能保证(N.Sharkey,2008)。此外,区分合法和非法的目标不是纯粹的技术,由于缺少“公民”① 1994年日内瓦公约建议使用常识,1997年议定书将平民定义为任何不是战士的人(C.M.Stanton,P.H.Kahn Jr,R.L.Severson, J.H.Ruckert & B.T.Gill,2008)。 一词的清晰定义,这一问题变得进一步复杂化。但即使人类可以为计算机程序提供精确的定义编码,机器人在可预见的未来能达到相当的认知水平也是受到怀疑的。它们在复杂模糊的情境下,是否有认知能力对士兵与无辜的人加以区分值得怀疑,例如,当孩子被迫携带枪支和弹药时的情况。夏基认为,所有自动的致命系统都不该被应用,除非它能在任何条件下都可以将一位士兵和一个平民区分开来。然而,这是一种过于严格的要求,因为人类本身也会区分错误(Lin P,Bekey G A,Abney K,2009)。阿金(Arkin)和林(Lin)等人提出了一个相反的观点。他们认为,尽管机器人系统可能犯错误,但它在道德上的平均表现水平比人类要高。为了支持她的观点,阿金引用了外科主任办公室关于士兵道德的报告(Surgeon General’s Office,2006)。当被问及时,不到一半的士兵表示相信非作战人员应该被尊严对待。此外,被询问士兵中的十分之一曾经虐待过非作战人员,三分之一的士兵被报道曾经至少有一次不能决定什么是正确行为的情况 (尽管所有士兵都接受过道德训练)。一些学者认为,因为人类士兵有时表现不佳,使用机器能够减少这些错误,是利大于弊的。林等人同意这个观点,他们认为人类士兵在恐惧或紧张时可能会停止理性的行为。相比之下,战斗型机器人不会被恐惧和压力所影响,无论在任何情况下都可能表现得更为道德(Lin P,Bekey G A,Abney K,2009)。从本质上讲,在战场上使用机器人在道德上是否正确的问题,可以归结为对实现什么样的人工智能的个人立场的不同问题。而阿金和林等认为自主战斗机器的行为比士兵表现得更好,夏基对此表示强烈怀疑(N.Sharkey,2008)。

军事机器人的应用也产生了另一些道德问题。例如,美国在伊拉克和阿富汗配置了5000多个遥控机器人,用于侦察与排雷,也有少数用于作战的重型武装机器人。在作战行动中,由地面机器人充当先锋,当隐藏着的敌人攻击时,无人驾驶侦察机发现敌军位置,通知巡航中的战斗机,然后,战斗机发射导弹,命中目标。这一切行动都通过网络由战场上的美军操控。地面武装机器人和自主/半自主武装无人机造成许多无辜群众(包括儿童、妇女)的伤亡,如在叙利亚、伊拉克、阿富汗经常出现的那样。通常,武器都是在人的控制下选择合适的时机发动致命打击。然而,军事机器人可在无人控制的条件下自动锁定目标并且摧毁它们。这些伦理问题的出现是因为目前还没有能够在近距离遭遇战中区别战斗人员和无辜人员的运算系统。计算机程序需要一个非常清晰的非战斗人员的定义,但目前还没有这种定义。机器人被设计用于实施包括军事活动或违法行为在内的对抗人类的行动。自主机器人士兵将大大增加引发地区性冲突和战争的可能性。

对于使用作战机器人,林等人提出了一个更实际的问题。他们相信在其他新技术的使用下,错误和缺陷将不可避免地存在着,致使作战机器人引发有害事故(Lin P,Bekey G A & Abney K,2009)。此外,人类将为致命型机器人所犯的错误或存在的缺陷付出更大的代价,因为人类生命可能岌岌可危。他们建议对每一个军事机器人进行广泛测试。不过,他们也预测,尽管已经作了这样的努力,在实际使用中作战机器人由于复杂性较高,仍然可能偶尔会出现意想不到或者无意识的行为(Lin P,Bekey G A & Abney K,2009)。如果一个机器人的无意行为被对手解释为一种战争挑衅,那么这种作战机器人的错误行为甚至可能导致意外的战争(P.Asaro,2008)。很多人对证实这种敌对行为颇感兴趣,会借机发动战争。因此,自动战斗系统的引入会产生新的危险,在某种意义上可能会引发意外的战争(P.Asaro,2008)。

即使对卷入战争中的伦理问题不予争论,人们也可能会考虑到在战场上经常运用全自动机器人实现武装的道德问题,尤其是当仅仅作战一方可能拥有机器人武装力量的时候。政客们可能会倾向于使用机器人代替人类战士,因为每个国家都有道德义务来保卫本国战士的生命安全(N.Sharkey,2008)。然而,发动这些所谓的无风险① 一场战斗,无人驾驶飞机可以击败一个国家的力量,然后留给地面机器人进行清理(N.Sharkey,2008)。 或一触即发的战争② 一场战争,敌人在远处被杀,对自己并不产生任何直接的风险(P.Asaro,2008)。 可能会产生长期的影响。这样的战争将不再有尸体被送回,而只有可怜的金属(至少对于那些单独使用机器人的国家来说是这样的),战争对人们情感方面的影响可能在很大程度上减少了。人们害怕的是,这可能会使一个国家更容易发动战争,这些战争的持续时间可能更长(Lin P,Bekey G A & Abney K,2009)。这是否会使人们对发动战争的行为变得日益冷漠,夏基对此表示担心(N.Sharkey,2008)。但阿莎罗称,科技再先进,人们对非正义战争总是持反对态度(P.Asaro,2008)。也有人认为战争是无风险的,战争本身没有正义与否,战争更容易引发的真正相关的问题是,战争是否在道德上是可以接受的。然而,应该使战斗尽可能地残酷来阻止战争发生的想法是危险而愚蠢的,林等人对这种推理说法做了考量。

相比之下,阿金预测我们不会停止使用系统自行操作的军队。相反,未来战场上将会是自动系统和人类士兵的团队协作。他希望会有一种标准,因为战争不会完全无风险。此外,阿金认为由机器人和人类士兵所组成的混合型团队,在行动上要比单由人类士兵组成的团队更加有道德。给机器人配备摄像机(或其他传感器)将为战场上的行动留下记录和报告。但是,它们可能被看作是障碍物,是不道德的行为,因为这些战争行为会被记录下来。然而,林等人认为,如果士兵们知道他们被机器人士兵监视着,他们很可能不再信任机器人,这也许会影响团队的凝聚力。人类士兵可能会由于时刻被监视而疲惫不堪,导致战斗力大大下降。

选取我院心脏外科2016年6月~2017年6月留置尿管7天以内的患者100例。其中男55例,女45例,年龄21~60岁,先心病30例,瓣膜病40例,冠心病30例,采用随机分原则分为观察组与对照组,各50例。两组患者在一般临床资料比较均无明显差异;差异无统计学意义(P>0.05)。见表1。

当前国外机器人伦理研究致力于为智能机器人设计引入伦理概念提供一种实际的方法。它致力于寻找方法,以确保机器对人类所作出的行为是适当的(M.Anderson,S.L.Anderson & C.Amen,2005)。它甚至还扩展到设计规则方面,促使一台机器的道德行为传达到另一台机器(M.Anderson &S.L. Anderson,2007)。这种机器人伦理研究扩展了计算机领域的伦理,计算机领域的伦理主要是关于人们如何操作他们的电脑来解决机器运转问题。例如,费大吉(Fedaghi,2008)提出了一种区分伦理类别的分类方案。这种分类方案可以使机器人在最细微的情境下确定所做的哪些行为是最道德的过程得以简化。作为一个概念的证明,费大吉这种分类适用于分解阿西莫夫的机器人定律,以此显示这些法律一旦重新修改,便可以支持逻辑推理。这种方法符合所谓的“程序伦理”,这种程序是伦理发展为程序来指导伦理决策的过程。其他学者也提出了类似的方法(S.Bringsjord,K. Arkoudas& P.Bello,2006),戈特弗里德·威廉·莱布尼茨(Gottfrried Wihelm Leibniz)希望建立一种普遍的道德微积分,布林斯优德(Bringsjord,2006)等人也受到他的想法的启发(G.W.Leiniz,1984)。在这里,道德逻辑(也就是逻辑得以扩展,与特殊运算一起代表道德概念)是用于代替阿西莫夫定律并给予机器人道德推理的能力。这样的方法旨在使机器人行为最大化地符合社会崇尚的道德规范。也就是说,机器人的行动将被一种方式所决定,以确保这样产生的机器人的伦理行为可以被正式地证明。检查给定的机器人(a)是否只是按照被允许的命令活动(b)执行所有必要的行动(关系和冲突),这些只是形式上的依据。此外,他们推论人际关系以及人与机器人的关系需要建立在某种程度的信任之上。用这种正式而富有逻辑的方法来描述机器人的行为,也许会有助于确定系统是否值得信赖。相反,他们认为基于案例研究的归纳推理是不可靠的,因为虽然前提(成果有待测验)可能都是真的,但是结论(未来所期望的行为)可能仍是错误的。

四、当前国外机器人伦理研究的难点

1.以程序伦理指导机器道德决策的方法

在融媒体时代下,地方电视台工作人员的专业素质需要同步提升。融媒体时代对地方电视台的体制变化会产生影响,对从业人员的专业素质也提出了高要求。然而,部分地方电视台的新闻工作者和节目内容制作者的思维还停留在传统媒体内容制作阶段,融媒体思维欠缺,专业素质偏低,应该提高专业从业人员对于融媒体理念的认识。缺乏融媒体思维,节目的制作缺少创新思维和新的传播理念,与市场需求背道而驰,工作能力难以得到电视台的认可,节目无法受到观众的追捧,使得电视台的节目制作水平整体下降。

(一)机器人道德地位问题的研究

1.机器人道德地位的认识论挑战

5.培训需求预测分析的结果具有指导性。其分析结果对企业培训的方方面面具有切实可行的指导意义,它是制定培训计划、确定培训目标、选择培训方法、实施培训活动、进行培训效果评估的基础。

应该赋予机器道德地位吗,这是一个一直困扰着机器伦理研究的问题。发展智能机器人的观点再次向哲学家提出了关于机器人道德地位问题的挑战。机器人是纯粹的机器,还是具有应得的道德地位?道德主体只属于人类吗,或者机器能被视为道德主体吗?或许有“机器道德”?智能机器只能被看作工具吗?它们的道德地位是实实在在的吗?它们和动物甚至人类的道德地位有相似之处吗?以往的观点往往伴随着一种常识,至少当人们被问到机器人是否具有道德地位时,大多数人会倾向于消极甚至否定的回答。然而,与机器人(有时是计算机)互动的人们也同时经常以另外的方式提出建议,他们不是把机器人看作“物”或“纯粹的机器”,而是比这些“更多”。

根据专家打分,对各项指标的重要性进行分析,最后得出医院药品费用影响因素指标的权重。笔者在指标的选择方法上,尽量兼顾专业技术要求,使其具有一定程度的综合性,并按照指标体系构建原则选取具体的测量指标。通过指标筛选、合并、试运行等环节,对指标进行提炼。最后,形成一个包含3大类指标与3个指标层的多角度、多层次的医院药品费用影响因素指标体系[9]。具体见表1。

关于道德地位的讨论通常认为道德地位取决于属性,比如,在动物伦理中,雷恩和辛格之间的经典辩论就是关于“什么样的属性是与道德有关的”:它到底是生命的主体(Regan,T,1983),还是遵循边沁(Bentham,1879)的观点,是作为忍受痛苦的能力(Singer,1975)?虽然,就规范伦理学的理论(道义论和功利主义)而言都有不同的方法,都认为为了决定道德地位,人们应该研究一个实体是否具有道德意义上的相关属性问题。就道德地位而言,标准的推理形式是:

企业的思想政治工作成效,反映着企业员工整体的政治方向、精神风貌,以及生产经营的效果,需要形成一整套完整的机制来保障。目前,在基层工作中发现,一些单位对员工思想动态的把握比较及时和准确,但在教育引导的及时性上、环境氛围的营造上、实际问题的分析解决上,还没有形成一整套规范化的工作体系,往往出现抓一阵紧一阵,各路工作协调配合不够,缺乏整体合力的现象。针对上述情况,需要从思想动态分析到基层教育沉到底、入人心,到一人一事思想政治工作解决实际问题,再到营造积极向上的文化氛围,最后到考核评价,构建起一整套完整的工作流程,实现基层思想政治工作制度化操作、常态化运行,使基层思想政治工作达到规范化、正规化。

回顾性分析我院在以往2年之内所接诊的肠息肉患者资料50例(2016.1-2018.1),所选患者全部获得明确的诊断,临床表现症状包括血便、腹部疼痛、肠梗阻以及便次增多等,50例患者中为横结肠息肉患者10例,降结肠息肉患者10例,直肠和乙状结肠息肉患者25例,升结肠息肉患者5例;50例患者中男性30例,女性20例,最小年龄30岁,最大年龄66岁,平均40.58±6.97岁。

实体Х具有属性P;

任何具有属性P的实体,都具有道德地位S;

实体Х具有道德地位S。

这是西方文化为了解放奴隶、女性和(部分)动物而进行的推理,道德科学已经在它的科学的哲学实验室里研究了这些实体。但是,这种方法提出了许多认识论上的问题。比如,如何知道一个特定的实体Х真的具有特定的属性P?如何确定一个特定的属性P能证明道德地位S?应该如何应对这个信念和行动之间、推理和经验之间的差距呢?

为此,需要考虑的不是属性问题而是关系问题,即实体之间的关系,以及人类之间的关系,尤其是其中的主体道德地位的归属和客体道德地位的归属。在《日趋发展的道德关系》(Growing Moral Relations)(Coeckelbergh,2012)一书中,库科尔伯格提出了道德地位的关系式的方法,他认为道德地位是伴随着实体之间的关系出现的。独立于这些关系去定义道德地位,本身就是违背道德的,因为它被当作了一个具有抽象“属性”的“实体”,即使正好是“动物”这个词已经构成了这样一个抽象和违反。这种方法应用于机器人将意味着为了确定它们的道德地位,需要知道它与其他机器和人类的关系,需要知道机器的情景、历史和位置,也需要知道它是如何被自然地、物质地、社会性地和文化性地嵌入和构成的。作为原子论属性的类似解剖学意义上的实体,人们需要现实的道德地位,而不是研究科学的道德地位,道德地位取决于关系规范的观点非常具有吸引力。不仅要考虑实体之间的关系,也要考虑主体和客体之间道德地位的关系。道德地位并不是在那里不需要讨论就可以定义的客观属性。关于道德地位的讨论发生在语言和思维之中,更确切地说是发生在人类语言之中。因此,这种关系式的、现象学的方法也为人们关注人与机器之间的道德关系留下了空间,这种人—机关系被解释为与主体性的纠缠。人们可以基于内格尔所说的“任何视角”,从外部描述这样一种关系,但也可以从现象学的角度诠释机器人。列维纳斯坚持认为:在道德中,关系是先在的,并主张道德不是实体,而是体现在一种优先的关系中(Levinas,1969)。列维纳斯的方法强调在某种情境中与“他者”的伦理关系以及与“他者”之间“面对面”的重要性。正是在具体的物与“他者”面对的过程中,它才要求“我”的道德责任,从而也才产生了道德问题。与列维纳斯不同的是,人们不应该只考虑“我—你”关系。道德地位的归属取决于许多条件的可能性,这种可能性的条件超出了“我—你”关系的范畴,比如语言关系、社会关系、技术关系、精神关系和空间关系等。一个特定的机器人如何呈现在“我”面前(或者说“我”如何建构它),事实上,所建构的人与机器人的关系是如何形成的,在很大程度上取决于人们如何谈论机器人(如“机器”与“伙伴”),取决于人类如何与机器人生活在一起,取决于人类社会中技术的发展,也取决于我们的文化及其信仰的维度,是上述因素(而不是其他的什么因素)激发了特定道德地位的归因。

2.人工道德主体争论的主要分歧

人工道德主体争论的核心和出发点是关于道德主体的两个完全不同的理念之间的对立,反过来也产生了对人工道德主体概念完全不同的预期。这就是各自不同所谓的标准观点(Eshleman,2014)和实用主义观点(Levin,2013)。在某种程度上这两个不同的变体可能有理由去争论这些真正的冲突。然而,争论的出发点是这两种道德主体观点的一般概念首先是冲突的,而且这也意味着为作出人工道德主体不同的结论留下了空间。

实验用废水取自山东某造纸厂制浆中段废水,制浆原料为杨木片,采用硫酸盐法制浆,取进废水处理系统之前各车间混合后的废水,颜色为浅棕黄色,pH值为6~7,CODCr约为600 mg/L,稀释10倍后的UV254值为0.567。石墨粉购于国药集团化学试剂有限公司;KMnO4、NaNO3、NaOH、K2Cr2O7、HgSO4、Ag2SO4、H2O2(浓度30%)、FeSO4·7H2O均购于国药集团化学试剂有限公司,均为分析纯。

人工道德主体的标准观点认为人类道德主体需要满足特定的条件,比如理性① 在机器伦理争论上,许多标准观点的支持者并没有明确提到理性,但仍然把其纳入他们观点的决策之中。 、自由意志或自治、非凡的意识。而实用主义的观点指的是对人工道德主体而言只需要存在某些行为和反应就可以。有人可能会说,实用主义的观点只需要模拟或展现行为的全部或部分标准,而标准观点则实际上需要它们全部。黛博拉·约翰逊(Johnson,D.)就是机器伦理标准观点② 约翰逊还利用了其他的论点,这事实上已经超出了标准观点和实用主义观点之间简单的二元对立。 的主要支持者之一。她规定了一个人工道德主体E要成为道德主体必须具备下列条件(Johnson, 2006):(1)E能够以自己的身体引起物理事件;(2)E有一个内在的规定I,它组成了自己的欲望、信仰和其他有意图的规定,这些规定共同组成了E以某种方式(理性和意识)行动的原因;(3)规定I是导致条件(1)的直接因素;(4)条件(1)中的物理事件有一些道德重要性的影响:当计算机系统运转时,它们的行为对表达世界的其他方面产生影响,这些表达效果对道德施加者有害或有益。 在这些条件中,(1)或者(2)保证E是一个主体,一般来说,(2)和(3)往往是被我们赋予人类类型的道德主体的存在。条件(4)则确保一个特定情况的行为是道德上相关的,这是一个主体成为道德主体的关键。然而,没有关于人工道德主体这方面的进一步讨论。约翰逊通过描述主体是如何区分行为和存在来总结这个定义:……一切行为(人类和非人类,自愿和非自愿)都可以用其原因来解释,但只有行动能被解释为一系列内部心理状态,我们才能解释为什么一个主体的行动总是关乎他们的信仰、欲望和其他有意图的规定(Johnson,2006)。约翰逊反对人工道德主体的主要理由直接取决于条件(2)和(3)。人工道德主体不能成为道德主体,因为它们缺乏可能导致它们行为发生的内在心理规定。尽管它们可能从外部的角度来看,提醒人类行为表现出“行动”的感觉,但这些行为由于缺乏内在的心理规定而无法具有道德品质。

人工道德主体的实用主义观点是弗洛里迪和桑德斯(Floridi, L. & Sanders,2004)最明确的主张,他们想要重新考虑像意识这样的标准,并主张一个“非意图的道德”。他们的出发点是:当人们根据所谓的典型实例推断一般的标准时,所选择的抽象程度取决于他们所选择的抽象层次。适用于标准观点的抽象级别是非常低的,保持接近成年人情况的标准,但通过提高水平,不以人类为中心的视角对道德主体可能会得以实现,同时观察与道德主体的基本结构特点相关的一致性和相似性。弗罗里迪和桑德斯提出了人工道德主体的抽象层次,在这个层次中,一个人工道德主体E的道德标准(Floridi,& Sanders, 2004)如下:(1)交互性,E与环境互动;(2)独立性① 弗洛里迪和桑德斯使用“自主”一词。但是诺曼和约翰逊指出,这一术语的使用与哲学的标准用法不太一致(参见Christman, J:《Autonomy in Moral and Political Philosophy》. In E. N. Zalta (Ed.),The Stanford Encyclopedia of Philosophy,2015, http://plato.stanford.edu/archives/spr2015/entries/autonomy-moral. 和 Lin,P.,Bekey,G. &Abney,K.,Autonomous military robotics: Risk,ethics,and design. California Polytechnic State Univ. San Luis Obispo: DTIC Document, 2008),“即使在计算机科学和机器人领域中,机器自主仍然是一个难以捉摸的模糊概念”(参见Noorman,M. & Johnson,D. G. 《Negotiating autonomy and responsibility in military robots》,《 Ethics and Information Technology》,2014,16(1),p55. doi:10.1007/s10676-013-9335-0)。这个词的意思通常是在涉及战争机器人的论文中使用的一个非常弱的条件,在“自动武器或自主系统”中,自主的意思仅仅是指相对于人类直接控制的独立性。因此,换成“独立性”更清楚地抓住了这个条件的核心意思,从而减少了误解。 ,E有能力改变自身和它的相互作用,而不受外部条件② 一些作者认为,这一标准旨在包含意向性的一种变体,尽管它在哲学意义上是不严格的。 的直接影响;(3)适应性,E可能会基于(1)的结果而改变在(2)中的实现方式。

虽然条件(1)与标准观点大致对应,但条件(2)看似与标准观点中存在的内部精神状态的需要有很大差异。条件(3)也是不同的,两者都较弱,因为不要求E的相互作用直接由条件(2)以下的条件引起,通过添加条件(1)和(2)的联合响应,从而使得条件变得更强。弗洛里迪和桑德斯认为,随着道德主体概念的修正,人工道德主体概念规避了约翰逊所说的争论(Johnson,2006;Floridi & Sanders,2004)。然而,正如前面提到的,人工道德主体争论的前景要比两种对立的道德主体哲学概念的应用更为复杂。例如,琳达·约翰逊(Johansson,L.)提出了人工道德主体标准,其中包括与标准观点所要求的状态相似的精神状态,但同时也建议,应该从实用主义的角度来理解这些标准。琳达·约翰逊理解的人工道德主体需要具备辨别道德相关信息的能力(如动机、后果等),基于这些信息作出道德判断,并根据这些判断发起行动。虽然约翰逊承认这些条件需要意识,但是她主张不可知论者的身心问题,因此提出了一个“虚拟”的方法:凡表现出来的功能,通常采取意味着与存在相关的能力,这些能力貌似应被视为实际上是存在的。因此,虽然人工道德主体不是严格(概念上或本体论上)由这些功能决定,但它们在实践中(从认识论上来说)是由它们的存在所标示的。面对一台表现得像道德主体的机器,我们应该得出结论:它是一个人工道德主体,这就是我们能得到的所有理由。

还有一种观点认为,在反对人工道德主体标准的争论中,人工道德主体可能会被摧毁。除了基于标准观点的论据之外,琳达·约翰逊还认为,由人工道德主体设计的特征会侵蚀智能的道德体,即使它可能具有意图性的特征或表现出内在精神状态的迹象,“无论将来交互式计算机系统的行为如何独立自治,它们都是人类行为(直接或间接)、人类社会制度和人类决策的产物。……计算机系统和其他人工产物都有意向,意向被嵌入他们设计师的有意识行为之中。人工物的意向性与它们的功能密切相关”(Johnson,2006)。弗朗西丝·S ·格劳森斯基(Frances S. Grodzinsky)和同事运用类似的观点,认为没有任何机器可以基于标准观点和实用主义观点声称这种独立性的程度。无论故意状态或实用主义的对应物,如弗洛里迪和桑德斯的条件(2),可能归因于一个机器,这些条件都不能与人类创造者完全分离开来:“如果有一个抽象层次的低等人工道德主体,可以将主体的行为明确归因于它的设计者,这样的主体则不是一个道德主体。因此,主体本质上变成了一个它的设计者的延伸。显然,该主体有可能远离最初的设计,并从设计人员的控制中走得很远。在这种情况下,在设计、实现和部署这样一个软件程序之后的某个时候,可能没有一个抽象级别,原始设计者和实现者的最初意图是可以被识别的。这种情况似乎满足了弗洛里迪和桑德斯所说的道德主体的条件。然而,正如上面所说的那样,这种情况并不能削弱设计者的责任,在这种情况下人工道德主体受到了它的设计者的限制。”(Grodzinsky,Miller & Wolf,2008)

如果这个论点有效,那么它实际上似乎与任何为人工道德主体提供空间的主张都同样有力,不管它与标准或实用主义观点有什么联系。这个论点的核心似乎并不是仅仅存在于这个或那个特性(例如意图或独立性),而是关于这个特殊主体特征的属性。因此,即使接受这样的概念:机器是有意图的状态,或者功能取代了这些意图状态,这些机器将属于它的设计者(或用户)而不是机器。同时,也不确定约翰逊的认知转折在多大程度上适用于此,他声称,只要人工道德主体相关特征的属性与典型案例相同,人们就应该以务实方式假定人工道德主体的存在。

(原载1941年7月1日《时代文学》第一卷第二期,选自1948年1月海洋书屋初版《小城三月》,图文选自网络)

(二)机器人道德决策方法的研究

阿西莫夫的机器人三定律① 阿西莫夫的机器人三定律首先介绍了一个短小的科幻故事(I.Asimov,1942)。 是最早也是最著名的将伦理概念嵌入到机器人控制的建议。根据这些定律,所有机器人在任何情况下都应该服从三条定律:(1) 机器人不得伤害人类个体,或者目睹人类个体遭受危险而袖手不管;(2) 机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;(3)机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存;不久,阿西莫夫添加了第四条定律(有时候也被认为是零定律)(4或者0) 机器人不得伤害人类整体,或者因不作为致使人类整体受到伤害。许多研究人员认识到阿西莫夫的机器人定律是基于假设机器人有足够的代理机构和认知能力作出道德决策。虽然这些定律简单而凝练,但它们并没有任何实用目的。因此,以此作为机器伦理的基础,不足以令人信服,为此学界进行了许多有益探索。

当前国外机器人伦理研究取得了重要进展。但是在研究过程中仍然存在两个难点问题亟待解决。一是关于机器人道德的地位问题,这涉及机器人伦理道德的形而上学的思考,而且对于机器人伦理研究来说具有本源性、基础性意义。二是机器人伦理的方法论,即机器人道德决策的方法问题。尤其是应该如何把伦理准则嵌入人工智能机器,实现机器人的道德决策。

最后一点,也是非常重要的,夏基指出,作战机器人的法律地位尚不清楚。例如,RQ-1“捕食者”无人机的研发始于侦察机(R因此命名),随后为其装备了地狱火导弹(更名为MQ-1,M代表多种用途)。然而,MQ-1却不被批准作为武器出现,最令人担忧的是,对于当前的军事标准而言,MQ-1不需要被批准。一个原因是RQ-1不被视为武器(因为它原本仅供监测),地狱火导弹已经被批准单独作为武器,两者结合并不需要特殊批准(J.Canning, G.Riggs, O.Holland & C. blakelock,2004)。这也许会创造一个先例,随着武装机器人自主发展水平不断提高,它们的研发和使用可以不受任何实际法律的控制。关于法律问题,阿莎罗提出“什么是战争中可以接受的,什么是不可以接受的”是国家间战争会议的最终议题。他认为,我们可以在现行法律上获得某种程度上的支持,最终,国际社会将不得不制定新的法律和条约来规范自主作战机器人的使用。

2.案例推理(决疑)方法

因为人类可以研发赋予其情感的机器人,人们担心这样的情感也许会对个人的情感产生长期的影响,尤其是当这个人有情感上的风险(如在儿童或智障群体的情况下)。不过,也有几个因素来相信与社会互动的机器人可能造福这些人(P.H.Kahn Jr,N.G.,Friedman & J.Hagman,2002 ;C.Kidd,W.Taggart & S.Turkle,2006;A.Tapus,C.Tapus& M.J.Matanric,2009)。例如,与拥有社会行为的机器人互动可以帮助自闭症儿童获得一些社会技 能(B.Robins,K.Dautenhahn,R.T.Boekhorst& A.Billard,2005;D.Feil-Seifer and M. Mataric,2008)。罗宾斯(Robins,2005)等开展了为期几周的关于自闭症儿童与仿人机器人互动的纵向研究。孩子们不知道机器人是受操控的,这些机器人可以模仿孩子移动。罗宾斯等的研究显示,与机器人反复接触能够激发自闭症儿童一些自发的、主动的和顽皮行为的出现,而孩子们此前很少出现这些行为。此外,一旦习惯了机器人,孩子们似乎也与实验室中的成人研究员能进行更积极的互动行为,从而出现儿童—机器—成人三元交互的情况。例如,孩子们会通过自发地坐在他的大腿上,握着他的手,甚至试图用简单语言与其沟通来接受调查员的存在。然而,现在还不清楚这些孩子表现出的与机器人互动时的社会技能是否会有持久的影响。

3.基于规则的方法

这一方法是由鲍尔斯(Powers,2006)提出的。鲍尔斯认为伦理系统,如康德(Kant)的绝对命令① 绝对命令表示在所有情况下都坚持其权威的绝对的无条件的要求,例如“只能根据该权利行事,从而你可以在同一时间里使它成为一个普遍的法律”( I.Kant,1993)。 很自然地导致一组规则。因此,这种方法假定一种理想的道德准则可以被翻译成一套核心规则。这有点儿类似于前面提到的道德逻辑。这种方法允许机器在逻辑上生成一些新的更接近于特殊或新情况的伦理准则。虽然这种方法很有趣,但是因为研究人员通常使用纯逻辑系统或案例推理的方法,所以还没有引起太多的关注。鲍尔斯(Powers)的道德系统以康德人工代理的发展本身与康德的道德是对立的为基础,这在哲学层面受到汤肯斯(Tonkens,2009)的批判。更详细地说,根据康德所提及的道德主体都是理性而自由的,而机器只能是理性的,为它们强加一种道德感的事实限制了他们的自由。同时,道德主体应该以他们本身为最终目的,而伦理机器人将用于实现其他目标。这两种事实让康德人工主体的创造与康德阐述的道德本身是不一致的。汤肯斯总结说,人们冒着风险创造机器,也许会逐渐理解他们的存在是不道德的(R.Tonkens,2009)。他们得出结论,机器人伦理是意图把道德规则嵌入到机器人控制器的有趣尝试。这些可能是受欢迎的伦理规则,比如阿西莫夫定律,或者这些伦理规则可能来源于古典伦理学的哲学方法,如康德的道德。逻辑推理是大多数方法的驱动框架。虽然机器人伦理仍处在初级阶段,但它是一种有价值的尝试。在提供拥有伦理行为的机器人的需求与在提供机器人更多的自主性以便在日常生活方面支持人类之间,机器人伦理使两者达成调解。当前国外机器人伦理研究指出,各种伦理问题都源于人-机互动(见表1)的不断进步。虽然人们可能对本研究长远影响持不同意见,但大家都一致认为,至少应该确保机器人的行为是道德的。为此,人们对将道德规则嵌入机器人的控制器做了尝试。其他学者要求起草法律,以便在造成伤害时,能够明确设计师、用户或机器的责任归属问题。

表1 人-机互动中的问题

前面提到的设计原则旨在确保机器人系统与人类仍然易于区分。因此,这一原则应该帮助人们在机器出现故障或者对人类造成伤害时明确责任归属。然而,对于机器人而言,当前的趋势却是相反的。因为越来越多的方法用于伪装机器人,这样它们看起来就像人类(H. Ishiguro,2006)或动物(General Atomics,2010 ;J.Gips,1995)。米勒(Miller,2010)对机器人伪装成人类是个好主意的看法提出质疑。他认为与人类相似的机器人如果真的每天与人类共存,如果人们想的话,至少应该有单独与他们的同类相处的决定权。同样,那些用于赋予机器人社会技能的努力也遭到批判,因为那样的话,人类维持的有意义的社交活动的数量会相对较少(K.Dautenhahn,2004;P.H.Kahn Jr, N.G.Freier,B.Friedman,R.L.Severson & E.Feldman,2004)。所以,问题产生于人们是否真的想用人工代理来填补自由的“社交鸿沟”( G.F.Melson,P.H.Kahn Jr,A.Beck & B.Friedman,2005) 。一些人甚至推测,人们可能会与机器人建立亲密、较深的关系。

1.4 统计学方法 应用SPSS 20.0统计软件进行数据分析,计数资料比较采用χ2 检验,P<0.05为差异有统计学意义。

一些机器伦理的倡导者结合无人驾驶汽车的例子,主张可以通过伦理规范的嵌入使人工智能机器成为伦理能动者。为此,他们致力于探讨将道德理论和伦理原则嵌入机器人和人工智能之中,或使其通过成长性的学习培育出道德判断能力的可能性。自上而下和自下而上的两种方法已被认为是使人工智能机器自行作出道德选择的途径,但是这两种方法都遭到了一定的困难和质疑。

自上而下的方法,即在人工智能机器中预设一套可操作的伦理准则,如自动驾驶汽车应将撞车对他人造成的伤害降到最低。在自上而下的方法中,伦理准则被编程到汽车的指导系统中。这些伦理准则可能是阿西莫夫的“机器人三定律”“摩西十诫”、其他宗教戒律或者一般的道德哲学,比如康德的绝对命令、功利主义或结果论的某种形式。程序员指示汽车在特定的条件下以最道德的方式行驶,汽车能够根据植入其人工智能程序的道德哲学作出道德选择(Wallach,Wendell & Colin Allen,2009)。自上而下方法的批评者(以及一些支持者)认识到,坚持任何一种特定的道德哲学所固有的困难,因为在某种程度上它们其中任何一个意图都会导致在道德上不可接受的行动和结果。两个常见的例子是:(1)本杰明·康斯坦特(Benjamin Constant,1797)指出,绝对命令将迫使某人告诉杀人犯他的猎物的位置,因为在任何情况下都禁止说谎;(2)如果遵循结果论就会得出结论,作为一种减少造成不可避免的损失的方法,汽车最好选择撞向相邻车道内两辆车中比较便宜的那辆车。这显然引起人们的担忧(Goodall,Noah,2014)。

SGSN1在昨天以后就基本没有出现GTPC的闪断告警了;SGSN2和SGSN3闪断次数也明显降低,剩下的告警和某些基站断链有关。

事实上,这些(和其他)道德哲学已经发展出了试图解决这些“缺陷”的变形体。尽管如此,在伦理学说中仍有一些重要的辩论,它突出了在特定的哲学体系中所面临的困境,这些哲学体系是为具有人工智能的机器提供道德指导的系统。例如,对于 “效用”是否可以量化以及如何被量化,存在着众所周知的重大分歧,边沁和穆勒就对是否有不同水平的效用(快乐的“高”和“低”)存在分歧。结果论者继续面临这些挑战,例如估计长期后果和决定应该为谁考虑后果等。

一大早,我爸从出了门就开始念叨:“我们这么大的年纪,耳朵聋,眼睛花,记性又不好,你让我们学那些干什么,你要是嫌我们丢人,我们明天就回去……”

没有必要反复讨论各种伦理学说之间的分歧,考虑到这些差异,无论是使用一种或结合所有道德哲学,人们都很难设计出一种能够自行作出道德决策的机器。但是有人可能会问,“如果人类可以做到这一点,为什么智能机器不能呢?”作为回应,人们首先注意到人类能够应付细微差别和处理模糊的决策,但计算机程序员发现这样的决策则特别费力。此外,当认为个人可以基于这个或那个哲学的基础而作出道德选择时,实际上,人类首先从抚养他们的父母那里获得他们自己的道德价值观,然后,当他们接触到来自新的群体、文化和亚文化的各种观念并逐步发展他们自己的个人道德组合时,会自动修正他们自己的这些价值观。此外,这些价值观受到特殊的社会原则的影响,这些社会原则并不局限于任何一个道德哲学。简而言之,自上而下的方法是难以操作的。

自下而上的方法,即让人工智能机器运用反向强化学习等机器学习技术研究人类相关现实和模拟场景中的行为,使其树立与人类相似的价值观并付诸行动,如让自动驾驶汽车研究人类的驾驶行为。在机器伦理学的第二种方法即自下而上的方法中,机器将学习如何通过观察人类在实际情况下的行为,而不是被教授任何形式的规则或具有任何特定的道德哲学来作出道德决策。这种方法已经被应用于无人驾驶汽车学习的非道德方面。例如,卡内基梅隆大学的研究人员发明的早期自动驾驶汽车,能够在经过2-3分钟人类驾驶员的驾驶之后在高速公路上行驶。其普遍化能力允许在四车道的道路上行驶,尽管它只是在一车道或两车道的道路上被训练的(Batavia,Parag H.,Dean A. Pomerleau &Charles E. Thorpe,1996)。机器学习也被一些研究人员用来改善和提高汽车的行人检测能力(Harris,Mark,2015)。此外,来自英伟达公司的团队最近展示了一辆无人驾驶汽车,它使用“端到端”的机器学习,即在观察了72小时的人类驾驶数据之后,它就可以自主驾驶(Bojarski,Mariusz,Davide Del Testa,Daniel Dworakowski,Bernhard Firner,Beat Flepp,Prasoon Goyal,Lawrence D. Jacke,2016)。

然而,将这些视为机器学习道德行为的先例,就假定机器对学习红绿灯的不同反应没有显著的差异,并学习理解、遵从道德命令,以便必须要特别注意不要撞到与汽车在同一车道行驶的骑自行车的人,更不要说不去干扰或故意伤害骑车的人(McDermott,Drew,2011)。然而,汽车被要求处理的各种道德问题是非常罕见的,比如,在不可避免的碰撞事故中谁会受到伤害等这些问题。根据2013年美国交通部的数据,每行驶1亿英里就导致了77人受伤和1.09人死亡(National Highway Traffic Safety Administration,2013)。而且,每一个这样的挑战情况都与下一个不同:有时是一只小猫引发事故,有时是一辆校车导致的事故,等等。无人驾驶汽车必须以这种方式经历几个生命周期的时间跟随人类学习道德。

因此,人们建议无人驾驶汽车可以通过某种作为集体思维或利用群体智能的聚合系统,并从数百万人的道德决策中学习。然而,人们应该注意,这可能会导致汽车习得一些不道德的偏好,就如同大多数司机是否会设定一个值得自动驾驶汽车效仿的标准,这还远不清楚。如果按照某些司机的不良驾驶习惯,智能汽车可能会超速、尾随并加入“路怒症”的行列。还必须注意到,当面对类似“电车难题”带来的选择时,人们可能会作出自动反应,而不是道德讨论和决策决定的。也就是说,观察人类驾驶行为不会教给这些机器什么是道德的,而会教给他们什么是普遍的。

这个问题是由简·佛朗西斯·博纳丰(Jean-Francois Bonnefon)、阿奇姆·谢里夫(Azim Shariff)和伊亚德·拉万(Iyad Rahwan)等所做的实验支持。他们测试了参与者对于无人驾驶汽车是否应该作出实用的道德决策的态度,即使这意味着为了拯救更多的行人而牺牲乘客的生命。研究发现大多数受访者希望无人驾驶汽车在没有参与的情况下作出实用的决策。对受访者自己来说,他们希望汽车能以他人为代价而优先考虑乘客的利益(Bonnefon,Jean-Francois,Azim Shariff& Iyad Rahwan,2016)。正如哲学家帕特里克·林(Patrick Lin)所说,没有人想要一辆汽车关心更大的善,他们想要一辆车关心他们自己(Metz,Cade,2016)。对于谷歌、特斯拉或任何其他汽车制造商来说,这几乎不可能成为符合道德标准的汽车,他们最不听从大众的意见。

简言之,自上而下和自下而上的方法都面临非常大的困难。此方法在技术上存在极大困难,理论上也受到不少质疑。这些困难更多的不是技术层面的,而是与人类使用的道德哲学的内在结构有关。尤其是相比于人工智能机器能否一开始就成为道德主体的问题,这些困难显得苍白无力。实际上,不论是自上而下地在自动驾驶汽车等人工智能系统中嵌入伦理代码,还是自下而上地让其从环境中学习伦理规范,在近期都很难实现。正如信息哲学家弗洛里迪(L.Floridi)所指出的,为机器制定一套道德无异于白日梦,更为负责任的策略是在智能机器内部嵌入一定的安全措施,同时在机器自动操作时,人可以作为“共同决策人”发挥监管作用(朗伯·鲁亚科斯、瑞尼·凡·伊斯特,2017)。但是,假若真能将合乎道德的伦理准则嵌入机器人和人工智能系统之中,是否意味着也可以轻而易举地将非道德准则和反道德准则嵌入其中呢?

五、结 语

以上所有这些途径赋予了设计机器的工程师一个新的角色,工程师对他所研发的成果的相关道德影响不再是完全免责的。目前由机器人完成研究的方法似乎存在争执,在科学出版物上关于探讨道德的长期影响问题的研究也是凤毛麟角。这是由几个原因导致的:一方面,大多数破坏性的长期影响似乎只是推测,是远离现实技术的;另一方面,这些问题将会成为政治层面上的争论内容。因此,它也许不是工程师和科学家这样的角色应该讨论的。但是,一些科学家也会讨论这些备受争论的问题。对于机器人的应用道德与否,一些学者有时持相反的看法。这种纠纷往往源于人性的不同,以及对未来可能实现技术的期望不同。虽然很难预测机器人如何以及何时将会在我们的社会中发挥积极作用,但人们没有理由不去继续讨论各种潜在的情景。因此,他们往往更加强调夏基所呼吁的科学家们进行现场讨论,为人们使用的机器人确定伦理边界(N.Sharkey,2008)。这种讨论可能扩展到包括机器人制造商、终端用户和政客在内的利益相关者,以便讨论新法规的潜在需要。新技术发展的短期而有益的影响通常是这类研究的推动力,只要有可能,人们也许可以权衡这些短期利益,同时考虑其长期潜在的消极后果。

虽然法律有明确规定对于当事人隐私应该得到保护,但个人隐私信息在保全过程中存在着被泄露的风险。由于互联网的操作过程是能够被计算机所记录的,当事人的个人隐私信息将会同涉案信息一并保存,会把不同来源和不同内容的信息存储在同一个系统和服务器内,这将导致在获取犯罪嫌疑人计算机系统电子数据的同时可能涉及获取其他机构的商业秘密和他人隐私的可能。在电子数据保全的过程中,当事人的隐私权会被侵犯。

参考文献:

[1]S.S. AL-Fedaghi. Typification-based ethics for artificial agents [J].In 2nd IEEE International Conference on Digital Ecosystems and Technologies(DEST),2008,482-491.

[2]C.Allen,W.Wallach,and I. smit [J].Why Machine Ethics?IEEE Intelligent Systems,2006,21(4):12-17.

[3]M.Anderson,S.L.Anaderson,C.Amen. MedEthEx,A Prototype medical ethics advisor [J].In Proceeding of the 18th Conference on Innovative Applications of Artificial intelligence(IAAI),2006,1759-1765.

[4]M.Anderson,S.L.Anderson,C.Amen. Towards machine ethics: implementing two action-based ethical theories [J].In technical report FS-05-06 of AAAI Fall Symposium on Machine Ethics,2005,1-7.

[5]M.Anderson,S.L.Anderson. Ethical Healthcare agents [J].Studies in computational intelligence,2007,107:233-257.

[6]M.Anderson,S.L. Anderson.Machine ethics:creating an ethical intelligent agent [J].AI Magazine,2007,28(4):15-27.

[7]M.Anderson,S.L.Anderson,C.Armen. An approach to computing ethics [J].IEEE Intelligent Systems,2006,21(4):56-63.

[8]S.L.Anderson. Asimov’s “three laws of robotics” and machine metaethics [J].AI &society,2008,22(4):477-493.

[9]R.C.Arkin. Governing ethics behavior:embedding [J].An ethical controller in a hybrid deliberative-reactive robot architecture-part I:motivation and philosophy. In Proceedings of the 3rd ACM/IEEE International conference on human robot interaction,2008,121-128.

[10]R.C. Arkin. Governing ethics behavior:embedding[J].An ethical controller in a hybrid deliberative-reactive robot architecture-part II: Formation for ethics control.In proceedings of the 1st conference on artificial general intelligence, 2008,51-62.

[11]R.C.Arkin. Governing lethal behavior :embedding [M].An ethical controller in a hybrid deliberative -reactive robot architecture-part III: representational and architecture considerations,In technology in wartime conference,stanford law school,2008.

[12]K.Arkoudas,S.Bringsjord,P.Bello.Toward ethical robots via mechanized deontic logic [J].In Technical Report FS-05-06 of AAAI Fall Symosium on Machine Ethics,2005,17-23.

[13]Arthur. Clipart webpage [J].retreived at,2010,23.09.

[14]P.Asaro.Robots and Responsibility from a Legal Perspective [J].In workshop on roboethics,IEEE international conference on robotics and automation (ICRA),2007.

[15]P.Asaro. How just could a robot war be [J]. 2008,50-64.

[16]I.Asimov. Runaround [M].Astounding:Science Fiction,1942.

[17]A.Blackwell. On-line sketchbook [J].retreived at,2010,23.09.

[18]The Vitreous Phantasm blog[J].Thinking robots,retreived at, 2010,23.09.

[19]D. Blum. Love at Goon Park:Harry Harlow and the science of affection[J].New York:Basic book,2002.

[20]N .Bostrom. Existential risks:Analyzing Human extinction scenarios and related hazards[J]. Journal of Evolution and Technology,2002,9(1).

[21]S.Bringsjord,K. Arkoudas,P.Bello. Toward a General Logicist Methodology for Engineering Ethically Correct Robots[J].IEEE Intelligent Systems,2006,21(4):38-44.

[22]J.Canning,G.Riggs,O.Holland,C. blakelock. A concept for the operation of armed autonomous systems on the battlefield[J].In Association for Unmananned vehicle systems International Annual symposium and exhibition,Anaheim,CA,2004.

[23]R.W.S.Chang,B.Lee,S.Jacobs, B.Lee. Accuracy of decisions to withdraw therapy in critically ill patients:clinical judgment versus a computer model[J].Critical Care Medicine,1989,17(11):1091-1097.

[24]B.F.Chellas. Modal logic:an introduction[J].Cambridge University Press,Cambridge,1980.

[25]K.Dautenhahn. Robots we like to live with? ! -a developmental perspective on a personalized,life-long robot companion[J].In 13th IEEE International Workshop on Robot and Human Interactive Communication,(RO-MAN),2004,17-22.

[26]K.Dautenhahn,I.Werry.Towards interactive robots in autism therapy:Background,motivation and challenges[J].Pragmatics & Cognition,2003,12(1):1-35.

[27]D.Dennett. When HAL kills,who’s to blame?[J].chapter(16).MIT Press,1996.

[28]D.Feil-Seifer,M. Mataric.Robot-assisted therapy for children with autism spectrum disorders[J].In P Rroceedings of the 7th International Conference on Interaction Design and Children,2008,49-52.

[29]J.Forlizzi,C.DiSalvo,F.Gemperle. Assistive Robotics and an Ecology of Elders Living Independently in their homes[J].Human-Computer Interaction,2004,19(1):25-59.

[30]B.Friedman.“It's the computer’s fault”:reasoning about computers as moral agents[J].In Conference companion on Human Factors in Computing Systems,1995,226-227.

[31]B.Friedman,P.H.Kahn.Jr. Human agency and responsible computing: Implications for computer system design[J].Journal of Systems and Software,1992,17(1):7-14.

[32]B.Friedman,P.H.Kahn.Jr,and J.Hagman.Hardware companions? What online AIBO discussion forums reveal about the human-robotic relationship[J].In proceedings of the SIGCHI Conference on Human Factors in Computing Systems,2003,273-290.

[33]M.Fujita.AIBO:Toward the era of digital creatures[J].International Journal of Robotics Research,2001,20(10):781-794.

[34]Y.Fujita,S.I.Onaka,Y.Takano,J.U.N.I.Funada,T.Iwasawa,T.Nishizawa etal.development of childcare robot PaPeRo[J].Nippon Robotto Gakkai Gakujutsu Koenkai Yokoshu(CDROM),2005,23:1-11.

[35]General Atomics Aeronautical.Predator B[J].retrieved at 2010,17(9).

[36]J.Gips.Towards the ethical robot[J].Cambridge,mA:1995,243-252.

[37]C.Grau.There Is No“I”in“Robot”:Robots and Utilitarianism[J].IEEE.Intelligent Systems 2006,21(4):52-55.

[38]S.Guo,G.zhang.Robot right[J].science,2009,323(5916):876.

[39]S.Harnad. Minds,machines and Turing. Journal of Logic,[J].Language and Information,2000,9(4):425-445.

[40]K.E.Himma.Artificial agency,consciousness,and the criteria for moral agency:what properties must an arti fi cial agent have to be a moral agent?[J].Ethics & Information Technology,2009 ,11(1):19-29.

[41]A.R.Honarvar,N.Ghasem-aghaee.Towards an Ethical Sales-Agent in E-commerce.In 2010 international conference on e-education[J].e-management and e-learning,2010,230-233.

[42]Honarvar,A.R.,Ghasem-Aghaee,N.An artificial neural network approach for creating an ethical arti fi cial agent[J].In proceedings of the 8th IEEE international conference on computational intelligence in Robotics and Automation,2009,290-295.

[43]IFR Statistical department.Executive summary of word Robotics 2009 industrial Robots and service Robots[J].retrieved at 2010,5.05.

[44]Foster-Miller Inc.TALON family of military,tactical,EOD, MAARS,CBRNE,Hazmat,SWAT and Dragon Runner Robots[J].retrieved at 2010,17.09.

[45]B.Ingram,D. Jone,A. Lewis,M. Richards,C. Rich,and L.Schachterle.A code of ethics for robotics engineers[J].In Proceeding of the 5th ACM/IEEE International Conference on Human Robot Interaction,2010,103-104.

[46]H.Ishiguro. Android science:conscious and subconscious recognition[J].Connection Science,2006,18(4):319-332.

[47]H.Ishiguro.Interactive humanoids and androids as ideal interfaces for humans[J].In PRroceedings of the 11th International Conference on Intelligent User Interfaces,2006,2-9.

[48]P.H.Kahn Jr. The Paradox of Riskless Warfare[J].Philosophy & Public Policy Quarterly,2002,22(3):2-8.

[49]P.H.Kahn Jr,N.G. Freier,B.Friedman,R.L.Severson,& E.Feldman.Social and moral relationships with robotic others[J].In Proceedings of the 13th IEEE International Workshop on Robot and Human Interactive Communication(RO-MAN),2004,545 - 550.

[50]P.H.Kahn Jr,N.G.,Friedman & J.Hagman.“I care about him as a pal”:conceptions of robotic pets in online AIBO discussion forums[J]. In CHI’02 Extended Abstracts on Human Factors in Computing Systems,2002,632-633.

[51]P.H.Kahn Jr,B.Friedman,D.R.Pérez-granados &N.G.Freier.Robotic pets in the lives of preschool children[J].In CHI’04 Extended Abstracts in Computing systems,2004,1449-1452.

[52]P.H.Kahn Jr,J.H.Ruckert,T.Kanda,H.Ishiguro,A.Reichert,H.Gary,and S.shen.Psychological intimacy with robots?:using interaction patterns to uncover depth of relation[J].In Proceedings of the 5th ACM/IEEE International Conference on Human Robot Interaction,2010,123-124.

[53]T.Kanda,T.Hirano,D.Eaton & H.Ishiguro.Interactive Robots as Social Partners and Peer Tutors for Children:A Field Trial[J]. Human-Computer Interaction,2004,19(1):61-84.

[54]I.Kant(translated by J.W.Ellington). Grounding for the metaphysics of morals 3rd ed[J].Hackett,1993(written in 1785).

[55]M.Keefer.Moral reasoning and case-based approaches to ethical instruction in science,volume 19 of science and technology education library[J].springer,2003,241-259.

[56]C.Kidd,W.Taggart & S.Turkle.A sociable robot to encourage social interaction among the elderly[J].In Proceedings 2006 IEEE International Conference on Robotics and Automation(ICRA),Pages 1050-4729,2006.

[57]H.Kozima,C.Nakagawa & Y.Yasuda.Children-robot interaction:a pilot study in autism therapy[J].Progress in Brain Research,2007,164(2):385-400.

[58]R.Kurzweil.THE Singularity is near:when humans transcend biology[M].viking adult,2005.

[59]G.W.Leiniz(translated by G.M.Ross) notes on analysis.past master[M].oxford Univ.press,1984.

[60]Lin P,Bekey G A,Abney K. Robots in War:Issues of Risk and Ethics[J]. Ethics & Robotics,2009:49-67.

[61]Maner W. Heuristic Methods for Computer Ethics[J].Metaphilosophy,2002,33(3):339-365.

[62]Dante Marino. Learning robots and human responsibility[J].International Review of Information Ethics,2006(6).

[63]Mason W A,Berkson G. Effects of maternal mobility on the development of rocking and other behaviors in rhesus monkeys:A study with arti fi cial mothers[J]. Developmental Psychobiology,1975,8(3):197-211.

[64]A.Matthias. The responsibility gap:ascribing responsibility for the actions of learning automata[J].Ethics & Information Technology,2004,6(3):175-183.

[65]N.Mavridis,C.Datta,S.mami,A.Tanoto,C.BenAbdelkader,and T.Rabie. FaceBots:Robots utilizing and publishing social information in Facebook[C]// ACM/IEEE International Conference on Human Robot Interaction.ACM,2009:273 - 274.

[66]B.M.Mclaren. Computational Models of Ethical Reasoning:Challenges,Initial Steps,and Future Directions[J]. Intelligent Systems IEEE,2006,21(4):29-37.

[67]G.F.Melson,P.H.Kahn Jr,A.Beck,& B.Friedman. Robotic Pets in Human Lives:Implications for the Human-Animal Bond and for Human Relationships with Personified Technologies[J]. Journal of Social Issues,2009,65(3):545-567.

[68]G.F.Melson,P.H.Kahn Jr,A.Beck & B.Friedman.Robots as dogs:children's interactions with the robotic dog AIBO and a live australian shepherd[C]// Extended Abstracts Proceedings of the 2005 Conference on Human Factors in Computing Systems,2005:1649-1652.

[69]K.W.Miller.It's Not Nice to Fool Humans[J].It Professional,2010,12(1):51-52.

[70]J.M.Moor.The Nature,Importance,and Difficulty of Machine Ethics[J]. Intelligent Systems IEEE,2006,21(4):18-21.

[71]P.A.Mudry,S.Degallier,A.Billard.On the influence of symbols and myths in the responsibility ascription problem in roboethics-A roboticist’s perspective[C]// The IEEE International Symposium on Robot and Human Interactive Communication,2008:2148-2158.

[72]R.R.Murphy,D.D.Woods. Beyond Asimov:The Three Laws of Responsible Robotics[J].IEEE Intelligent Systems,2009,24(4):14-20.

[73]United Nations. convention on the rights of child[J].Treaty series,1989,1577:3.

[74]International committee of the red cross[J].Protocol Additional to the Geneva Conventions of 12 August 1949,1977.

[75]J.Osada,S.Ohnaka,M.Sato. Scenario and design process of childcare robot PaPeRo[C]// International Conference on Advances in Computer Entertainment Technology,2006:80.

[76]S.Shiu,S.K.Pal.Foundations of Soft Case-Based Reasoning[M].John Wiley:John Wiley & Sons,2004.

[77]S.Petersen.The ethics of robot servitude[J]. Journal of Experimental & Theoretical Artificial Intelligence,2007,19(1):43-54.

[78]T.M.Powers. Prospects for a Kantian Machine[J]. Intelligent Systems IEEE,2006,21(4):46-51.

[79]D.Pressler.stupid little robot buddy,retreived at 2010,23.09.

[80]A.S.Rao,M.P.Georgeff.BDI agents:From theory to practice[C]// In the proceedings of the first international conference on Multiagent Systems(ICMAS),1995,312-319.

[81]J.Rawls.A theory of justice.harvard university press[M].cambridge Cambridge university press,1999.

[82]D.J.Ricks,M.B.Colton.Trends and considerations in robotassisted autism therapy[J].In 2010 IEEE international conference on Robotics and Automation(ICRA),2010,58(8):4354-4359.

[83]B.Robins,K.Dautenhahn,R.T.Boekhorst,A.Billard.Robotic assistants in therapy and education of children with autism:Can a small humanoid robot help encourage social interaction skills?[J].Universal Access in the Information Society,2005,4(2):105-120.

[84]R.Rzepka,K.Araki.What could statistics do for ethics? The idea of a commonsense processing based safety valve[J].In Technical Report FS-05-06 of AAAI Fall Symposium on Machine Ethics,2005,85-87.

[85]M.N.Schmitt. The Principle of discrimination in 21st century warfare[J].Yale Human Rights and Development Law Journal,1999(2):143-164.

[86]N.Sharkey. Gassandra or false prophet of doom: AI robots and war[J].IEEE Intelligent Systems,2008,23(4):14-17.

[87]N.Sharkey.Grounds for discrimination:autonomous robot weapons[J].RUSI Defence Systems,11(2):86-89.

[88]N.Sharkey.The ethical frontiers of robotics[J].Science,2008,322(5909):1800-1801.

[89]N.Sharkey.Death strikes from the sky:the valculus of proportionality[J].IEEE Technology and society magazine,28(1):16-19,2009.

[90]N.Sharkey.The robot arm of the law grows longer[J].Computer,2009,42(8):116,113-115.

[91]N.Sharkey.&A.Sharkey.The crying shame of robot nannies:an ethical appraisal[J].Interaction Studies,2010,11(2).

[92]T.Shibata,M.Yoshida,J.Yamato.Artificial emotional creature for human-machine interaction[J].In 1997 IEEE International Conference on Systems,Man,and Cybernetics,volume3,1997,2269-2274.

[93]B.Skyrms.Choice and chance:An introduction to inductive logic[J].Wadsworth:Wadsworth publishing,1999.

[94]L.B.Solum.Legal personhood for arti fi cial intelligences[J].North Carolina Law Review,1992,70:1231-1287.

[95]R.Sparrow.The march of the robot dogs[J].Ethics and Information Technology,2002,4(4):305-318.

[96]R.Sparrow and L.Sparrow.In the hands of machines? The future of aged care[J].Minds and Machines,2006,16(2):141-161.

[97]C.M.Stanton,P.H.Kahn Jr,R.L.Severson,J.H.Ruckert,& B.T.Gill.Robotic animals might aid in the social development of children with autism[J].In Proceedings of the 3rd ACN/IEEE International Conference on Human Robot Interaction,2008,271-278.

[98]J.P.Sullins. When is a robot a moral agent?[J]. International Review of Information Ethics,2006,6(12):23-30.

[99]Surgeon General’s Of fi ce[J].Mental Health Advisory Team(MHAT)IV Operation Iraqi Freedom 05-07,Final Report,Nov.2006,17.

[100]A.Tapus,C.Tapus & M.J.Matanric. Music therapist of individuals with cognitive impairments[J].In Proceedings of the 4th ACM/IEEE International Conference on Human Robot Interaction,2009,297-298.

[101]R.Tonkens,A challenge for machine ethics[J].Minds and Machines,2009,19(3):421-438.

[102]US Department of Defense[J].DoD Press Brie fi ng with Mr.Weatherington from Pentagon Brie fi ng Room,2007,9(18).

[103]G.Veruggio.The birth of roboethics[J].In Workshop on Roba-Ethics,IEEE International Conference on Robotics and Automation(ICRA),2005.

[104]G.Veruggio.The euron roboethics roadmap[J].In 2006 6th IEEE-RAS International Conference on Humanoid Robots,2006(6)12-617.

[105]G.Veruggio.,F.Operto. Roboethics:a bottom-up interdisciplinary discourse in the fi eld of applied ethics in robotics[J].International Review of Information Ethics,2006(6):2-8.

[106]K.Wada,T.Shibata.Living with seal robots its sociopsychological and physiological influence on the elderly at a care house[J].IEEE Transactions on Robotics,2007,23(5):972-980.

[107]K.Wada,T.Shibata,T.Muaha,S.Kimura. Robot therapy for elders affected by dementia[J].IEEE Engineering in Medicine and Biology,27(4):53-60,2008.

[108]K.Wada,T.Shibata,T.Saito,K.Sakamato,K.Tanie.Psychological and social effects of one year robot assisted activity on elderly people at a health servive facility for the aged[J].In Proceedings of the 2005 IEEE International conference on Robotics and Automation(ICRA),2005,2785-2790.

[109]M.Walzer.Just and unjust wars[J].Basic Books,3rd edition,2000.

[110]V.Wiegel and J.van den Berg.Combining moral theory,modal logic and MAS to create well-behaving artificial agents[J].International Journal of social Robotics,2009,1(3):233-242.

[111]Regan,T.(1983). The case for animal rights[J].Berkeley:The University of California Press,1983.

[112]Bentham,J.1879.An introduction to the principles of morals and legislation.J.H.Burns and H.L.Hart(eds)[M].Oxford:Oxford University Press,2005.

[113]Singer,P.Animal liberation[M].New York:Random House,1975.

[114]Coeckelbergh,M.Growing moral relations: critique of moral status ascription[M].Basingstoke:Macmillan,2012.

[115]Levinas,E.Totality and infinity.Pittsburgh[M].PA:Duquesne University Press. Trans. A. Lingis,1969.

[116]Eshleman,A.Moral Responsibility.In E.N.Zalta (Ed.),The Stanford Encyclopedia of Philosophy (Summer 2014 ed.)[EB/OL]. 2014,http://plato.stanford.edu/archives/sum2014/entries/moral-responsibility/.

[117]Levin,J.Functionalism. In E. N. Zalta (Ed.)[J].The Stanford Encyclopedia of Philosophy,2013.

[118]Johnson,D.Computer systems:Moral entities but not moral agents[J].Ethics and Information Technology,2006,8(4), p198, doi:10.1007/s10676-006-9111-5.

[119]Floridi,L.,Sanders,J.W.On the morality of artificial agents[J].Minds and Machines,2004,14(3), 351.

[120]Grodzinsky,F. S.,Miller,K.W. & Wolf,M. J. The ethics of designing artificial agents[J].Ethics and Information Technology,2008,10(2-3), 121. doi:10.1007/s10676-008-9163-9.

[121]Wallach,Wendell,and Colin Allen.Moral machines:teaching robots right from wrong[M].New York:Oxford University Press,2009,16.

[122]Constant,Benjamin.Desre actions politiques[J].Oeuvres comple’ tes,1797(1):1774-1799.

[123]Goodall,Noah.Ethical decision making during automated vehicle crashes[J].Transportation research record:journal of the transportation research board,2014,2424:58-65.

[124]Batavia,Parag H.,Dean A. Pomerleau,and Charles E. Thorpe.Applying advanced learning algorithms to ALVINN[EB/OL]. Carnegie Mellon University,The Robotics Institute,1996,http://www.ri.cmu.edu/ pub_ fi les/pub1/batavia parag 1996 1/batavia parag 1996 1.pdf.

[125]Harris,Mark.New pedestrian detector from Google could make self-driving cars cheaper[EB/OL].IEEE Spectrum,2015,http://spectrum.ieee.org/cars-that-think/transportation/self-driving/new-pedestrian-detector-fromgoogle-could-make-selfdriving-cars-cheaper.

[126]Bojarski,Mariusz,Davide Del Testa,Daniel Dworakowski,Bernhard Firner,Beat Flepp,Prasoon Goyal,Lawrence D.Jackel et al[EB/OL].End to end learning for self-driving cars. arХiv,2016,https://arxiv.org/ abs/1604.07316.

[127]McDermott,Drew.What matters to a machine. In Machine ethics,ed[J].Michael Anderson,and Susan Leigh Anderson,Cambridge:Cambridge University Press 2011,88-114.

[128]National Highway Traffic Safety Administration.Traffic safety facts 2013:A compilation of motor vehicle crash data from the fatality analysis reporting system and the general estimates system[EB/OL].US Department of Transportation,2013,https://crashstats.nhtsa.dot.gov/Api/Public/ViewPublication/812139.

[129]Bonnefon,Jean-Franc,ois,Azim Shariff,and Iyad Rahwan[J].The social dilemma of autonomous vehicles.Science,2016(352):1573-1576.

[130]Metz,Cade.Self-driving cars will teach themselves to save lives—but also take them[EB/OL].WIRED,2016,http://www.wired.com/2016/06/self-driving-cars-will-power-killwont-conscience/.

[131]朗伯·鲁亚科斯,瑞尼·凡·伊斯特.人机共生:当爱情、生活和战争都自动化了,人类该如何相处[M].北京:中国人民大学出版社,2017:28-29.

An Overview of Robot Ethics Research Overseas

SU Ling-yin
(College of Marxism,Shanghai Normal University,Shanghai 200234)

Abstract: In the literatures abroad,the main ethical problems of robots have been discussed in recent years. On the basis of the existing literature,we fi nd that the current foreign robotics ethical research focuses on the various ethical problems arising from the application of two types of robots: one is the service-oriented robot in harmony with human beings,and the other is The battle fi eld of the deadly type of robot combat. At the same time,the new research tendencies of foreign robotics ethics are that they do not pay much attention to the theoretical construction of robot ethical frame,but from a practical point of view,it is acceptable to design and apply those behaviors in moral terms Artificial systems to find practical and practical methods. In particular,the absence of legislation,and the need for normative guidance on the invention and development of autonomous systems applied to their interactions and companionship with the daily life of mankind. After all,in the design of such a system,short-term interests tend to cover some of the potential negative impact of the unknown.

Key words: AI;Robot;Machine Ethics; Social Man-machine Interaction;Autonomous System

中图分类号: TP242.6;B82

文献标识码: A

文章编号: 1005-9245(2019)01-0105-18

收稿日期: 2018-03-08

基金项目: 本文系上海市哲学社会科学项目“人工智能发展的伦理规范与法律规制”(2017BZХ009)、国家社科基金重大项目“智能革命与人类深度科技化前景的哲学研究”(17ZDA028)的阶段性成果。

作者简介: 苏令银,上海师范大学马克思主义学院副教授、硕士生导师,上海师范大学经济伦理研究中心副主任。

[责任编辑:马瑞雪]

[责任校对:李 蕾]

标签:;  ;  ;  ;  ;  ;  

当前国外机器人伦理研究综述论文
下载Doc文档

猜你喜欢