弱人工智能时代的法律回应-构建以产品责任为核心的责任分配体系论文

弱人工智能时代的法律回应
——构建以产品责任为核心的责任分配体系

钱思雯

(常熟理工学院,江苏 常熟 215500)

摘 要: 弱人工智能虽然具有深度学习能力,但尚未具备自我意识与情感,应当定性为 “物”作为法律关系的客体。在涉及人工智能侵权案件中,制造商在原因调查、技术控制等方面具备优势,并可通过责任限制、税收、基金和保险等手段缓和责任,因此构建以产品责任为核心的责任分配体系成为平衡各方利益的最优选择。由于人工智能的特殊性,制造商需负担举证、培训、警示、维护和披露等义务。面临弱人工智能的挑战,现行法律体系亟需在协调稳定性与适应性的前提下对科技进步做出回应。

关键词: 弱人工智能;责任分配;产品责任;科技与法律

0 引言

案例一:2011年,英国一驾驶员根据GPS指引,超车并将车辆转向道路错误的一侧造成交通事故致人死亡。法院认为GPS的失误是事故的部分原因,但驾驶员对GPS的过分依赖构成了疏忽驾驶,被判处4年徒刑。

案例二:2016年,美国佛罗里达州一辆开启Autopilot模式的特斯拉电动汽车对驶近的大货车未做出任何反应,径直撞向了大货车尾部的拖车并导致驾驶员死亡,成为人工智能发展史上第一起自动驾驶致死事故。

案例三:2017年,ElsaGate (爱莎门事件)使不良儿童视频广泛传播,由于You Tube算法存在漏洞 (如自动推荐算法给予基于视频发布者的权值权重很小,给予个人观看者权值比重大;儿童安全算法易被规避等),导致个别有害视频被儿童观看后大量类似视频被自动推荐给儿童。

从深蓝到AlphaGo,从GPS到智能车,近年来,人工智能 (Artificial Intelligence,AI)在多个领域取得突破进展并展现了极为强大的深度学习能力,甚至超越了人类一流专家水平,人工智能已成为不可阻挡的时代潮流,对各国经济社会发展产生着战略性和全局性影响。 《国务院关于积极推进 “互联网+”行动的指导意见》提出,到2018年,要在重点领域培育若干全球领先的人工智能骨干企业,初步建成基础坚实、创新活跃、开放协作、绿色安全的人工智能产业生态,形成千亿级的人工智能市场应用规模。

人工智能的飞速发展带来了一系列社会与法律问题:社会层面,特定行业工作岗位首当其冲,2018年1月,美国卡车司机工会要求与UPS谈判禁止无人机和无人驾驶卡车配送包裹,以保障26万名员工工作;法律领域,2017年12月,工信部 《促进新一代人工智能产业发展三年行动计划 (2018—2020年)》提出要开展人工智能相关政策和法律法规研究,为产业健康发展营造良好环境。年是三年行动计划的之年,人工智能法律领域的研究也已提上议事日程,人工智能的民事主体地位、人工智能作品著作权、人工智能侵权、大数据时代隐私权保护等问题皆已引起了各方关注。

面对人工智能时代对现行法律体系的挑战,本文针对以下问题进行思考:传统法律如何应对人工智能技术革新?怎样构建人工智能时代的责任分配体系?如何在保障安全与促进技术进步之间取得平衡?本文的第一部分对当前人工智能的发展阶段进行定性,认为当前人工智能属于弱人工智能阶段,尚未脱离 “物”之属性,仍属法律关系的客体;第二部分从责任分配的角度分析弱人工智能时代可能承担责任的主体,认为由制造商承担产品责任是平衡技术发展与消费者权益保护的最优选择;第三部分讨论弱人工智能技术发展对现行法律体系的挑战,认为法律应对人工智能的合法地位采取宽容态度,并确立合理的监管框架和责任分配体系。

1 人工智能的定位:弱人工智能的 “物”之属性

技术进步使人工智能逐渐由 “物”向 “人”转变,对应人工智能法律人格从无到有、法律地位由法律关系的客体向主体的转变。人工智能的不同法律定位对应了不同的纠纷解决形式,影响最终的权利归属与责任承担方式,因而明确现阶段人工智能技术的发展阶段与法律地位成为探讨人工智能一切法律问题的前提。

1.1 发展阶段

沙特阿拉伯于2017年赋予机器人 “索菲亚”公民身份,引发了对人工智能法律地位的思考,其究竟是隶属于人类的 “财产” “自然奴隶”,还是与人类相似的 “公民”[6]?具有公民身份的机器人 “索菲亚”在当前只是特例,弱人工智能的公民地位并未得到普遍认可,人工智能的公民权问题在强人工智能时代将无法回避,而弱人工智能时代则更多关注责任分配等私法问题。

Analysis of opportunities and risks in China daily chemical industry under OBOR 3 1

目前,弱人工智能已取得了飞速发展并充斥在人类生活的各个方面,如搜索引擎、导航系统、人脸识别系统、AlphaGo,等等[3]。尽管深蓝、AlphaGo等人工智能在某些领域击败人类顶尖高手,但尚未具备自我、意识等类人类智能,仍未跨越与强人工智能之间巨大的技术鸿沟, 《星球大战》中的C-3PO等智能程度匹配甚至超越人类智能的强人工智能仍属虚构。 《奇点临近》一书预言技术发展将以指数级速度递增,人工智能将在2045年超过人类智能[4],但奇点临近前的当前时点仍处于弱人工智能阶段。

1.2 控制能力

面对人工智能的爆发式发展,霍金曾公开表示忧虑,其认为: “可以想象,人工智能会以其‘聪明’在金融市场胜出,在发明方面胜过人类研究者,在操纵民意方面将胜过人类领导人,研发出人类甚至不理解的武器。尽管人工智能的短期影响取决于谁在控制人工智能,而它的长期影响则取决于人工智能能否受到任何控制。”可以看到,控制权的归属将成为强人工智能和超人工智能时代人类与人工智能交互作用的焦点,也是人工智能从法律关系的客体向主体转变的重要转折点。强人工智能以后,人工智能技术超越人类控制能力,伦理性将超越技术性成为人工智能法律制度的基石,从 “机器人三定律”到 “阿西洛马人工智能原则”,人工智能的伦理性基础将确保其未来发展以人类最佳利益行事。

弱人工智能的深度学习能力导致其行为具有不可预测性,当制造商 (设计者)将人工智能用于实践后就无法预见其将如何运行,更无法预测其与消费者或第三方互动学习结果[5],例如,案例三中,You Tube根据用户点击习惯推荐类似视频导致有害视频扩散,微软聊天机器人Tay根据互动用户语言习惯学习并发表种族歧视言论,等等。然而,尽管无法精准预测弱人工智能的行为结果,制造商 (设计者)仍可通过更科学合理的设置算法与强化审核过滤体系对不可预测后果加以防范。因此,尽管弱人工智能具有独立思考与深度学习能力,甚至具备某种程度的独立行为能力,但仍离不开人类的监管与控制,如人类驾驶员在自动驾驶模式下仍需保持足够警觉并在系统发出请求时及时恢复人工控制,又如网络平台自动推荐系统的控制权由平台公司掌握并受到监管。由此可见,弱人工智能阶段,人类有能力也有义务保持对人工智能的控制以保障技术发展的安全性,对弱人工智能的法律规制更多集中于技术层面。

基于148个多态位点有、无的二元数据矩阵,采用Jaccard系数和离差平方和法策略,对106份样本进行聚类分析。

1.3 法律地位

自1956年达特茅斯会议上提出人工智能概念以来,人工智能的发展已经历60多年,对人工智能的讨论围绕 “思考”和 “行为”区分了四个维度,即:像人一样思考的系统,理性地思考的系统,像人一样行动的系统,理性地行动的系统[1],但对其定义至今未有一致结论。从发展阶段看,人工智能可分为弱人工智能 (Artificial Narrow Intelligence,ANI)、强人工智能 (Artificial General Intelligence,AGI)和超人工智能 (Artificial Super Intelligence,ASI)三个阶段,弱人工智能尽管具有推理计算、自我学习能力,可以像人类一样解决任何问题并在任何社会环境中进行互动,但并不具备意识;强人工智能则具备意识、自我、创新思维等与人类类似的智能[2];超人工智能更是在各方面均远超人类大脑。

(3)保险。通过保险分散人工智能带来的风险是一个多赢选择,人工智能安全性越高,保费就越低,就越能促进制造商进一步改进技术、提高产品安全性[16]。目前,在自动驾驶领域,交通事故责任保险或赔偿保函已成为强制性要求。对人工智能投保也具有较强可行性,目前许多保险公司已开始采用 “基于使用”计划,通过车辆设备收集驾驶信息,了解驾驶习惯及驾驶行为,据此精确调整保费。类似的,在其他人工智能领域,保险公司也可根据历史数据确定风险并调整保费[19]

(2)税收与基金。通过向制造商收税并设立赔偿基金以缓和制造商责任、减少诉讼带来的冲击,此种方式在医疗、汽车制造领域均有先例。以医疗领域为例,新疫苗的研发与应用往往伴随大量诉讼,为促进疫苗的研发并维护受害人权益,1986年,美国前总统里根签署 《全国儿童疫苗损害法案》 (NCVIA)并为受害者设立赔偿基金,并成立了国家预防接种伤害救济项目 (NVICP),每剂疫苗向制造商征收0.75美元的税收,消费者可直接向该项目提出索赔。消费者并不承担对因果关系和实际损失的举证责任,只有消费者拒绝赔偿或被该项目拒绝赔偿的情况下才可对制造商提起诉讼,此举既鼓励了家长给儿童接种疫苗,同时也促进了制造商继续研发疫苗[18]。在人工智能领域,也可参考此种方式向制造商征收合理的税收并成立赔偿基金,为人工智能侵权受害人提供赔偿,避免制造商陷入诉讼旋涡。

目前,弱人工智能虽具有独立思考与深度学习能力,但尚未具备自我意识与情感,也不能离开人类的最终控制。从作为辅助驾驶工具的GPS到可独立作出判断的自动驾驶汽车,人工智能自治性不断增强,工具性不断减弱,难以做出准确的法律定性。明确弱人工智能的法律定位是解决一切法律问题的关键,根据人工智能的特殊属性,其可能的法律定位包括[9]

(1)雇员:近年来,亚马逊等公司开始探索采用无人机、无人驾驶汽车送货,导致人类快递员岗位岌岌可危,或可将弱人工智能的法律地位类比为人类雇员,其造成的损害由雇主承担替代责任。然而,与其说无人机、无人驾驶汽车类似于人类雇员,不如说其为更先进的运输工具更合适。再进一步,人工智能并不具备人类雇员的特性,无法在复杂的社会活动中作为一个有自我意识的主体存在,难以从主观上断定其是否为 “雇主利益”行事,对其自我学习、自我判断后超出授权范围的行为难以断定是否属于 “职务行为”,将其类比为 “雇员”并不合适。

(2)代理人:电子代理人 (electronic agent)在电子商务缔约过程中的广泛运用提出了人工智能法律地位的另一种可能——代理人,与人类代理人相似,电子代理人使被代理人行为得以延伸,并将行为后果归属于被代理人。然而,电子代理人实质上仍是计算机程序、电子或自动化手段,根据既定程序运行,与人类代理人有本质区别,没有能力对代理过程中造成的损害承担民事责任,无法超脱工具范畴 (Instrumentality Theory),并不适合将其类比为代理人[10]

(3)未成年人:将人类对弱人工智能的监管类比为对未成年人的监护,监护手段与强度随着被监护人理性的增长而调整[11]。但监护权系准身份权[12],弱人工智能并不具备 “人格”与 “身份”,并且其理性程度、承担监护义务的主体均难以确定,无论使设计者、制造者或使用者负担监护义务,均将造成 “监护人”的过重负担,阻碍人工智能技术发展。

(1)举证义务。产品责任系无过错责任,原则上,受害人承担对产品缺陷、损害以及因果关系的证明责任;生产者则对法律规定的免责事由承担举证责任。而在特殊情况下,如生产者掌握核心技术,受害人无法通过其他途径检测产品缺陷,则可由法官裁量采用举证责任倒置。弱人工智能的产品责任确定即属于此种特殊情况,人工智能的复杂性与不透明性使消费者难以查明事故原因并证明产品缺陷,为避免消费者负担过重的举证责任,举证责任倒置是更合理的选择。此外,以不存在 “合理替代设计”作为证明标准,避免诉讼泛滥[20]

草,割了一茬又一茬,起初越割越盛;可当土地瘠薄,养份尽失,草也就变黄、变枯、变少,直至消失,恰似头发。故而,我乐用“头上草”称呼“头发”,调侃、俏皮,却又透着“人生一世,草木一秋”的无奈与豁然。

在竞争激烈的市场环境中,单靠企业自身的资源去参与竞争已远远不够。通过战略采购来获取和整合供应商的资源以获得竞争优势,是我国生产型企业的必然选择。集成化供应链就是在战略采购的背景下应运而生的产物,是指供应链的所有成员单位基于共同的目标而组成的一个“虚拟组织”,组织内的成员通过信息的共享、资金和物质等方面的协调和与合作,优化组织目标(整体绩效)。基于VMI(Vendor Managed Inventory) 模式的集成化供应链管理是对整个供应链上的供应商、生产商、运输商、分销商以及最终消费者的物流、信息流和资金流进行计划、协调、控制等,使其成为一个无缝的连接,实现集成供应链的整体目标。

(5)危险行为:还有一种思路是将弱人工智能类比高度危险作业,如民用核设施、航空器、高度危险物等,由实际控制者承担无过错责任。然而,人工智能的运用与火箭测试、高速驾驶油罐车等行为存在本质区别,发展人工智能的目的是使人类生活更为便利与安全,即便在使用过程中产生了危险也并非其固有风险,很难将其定性为危险行为。相反,弱人工智能在提高安全性、减少事故发生方面做出重要贡献,例如特斯拉在安装了Autopilot辅助驾驶系统后交通事故发生率降低了40%。

(4)维护义务。不同于普通产品制造商提供的售后服务,弱人工智能产品投入市场后,不断与人类互动并自我学习成长,时刻面临新情况、新问题,弱人工智能产品制造商负有更重的跟踪维护义务,需要随时注意更新程序、修补漏洞并防范黑客攻击,必要的时候甚至需要主动召回产品[9]。目前,一些制造商已经在自动驾驶汽车采用无线升级技术OTA (Over The Air),以确保对自动驾驶汽车的维护与更新。

2 弱人工智能的责任承担:以产品责任为核心

无论是有形的自动驾驶汽车,还是无形的算法,弱人工智能作为 “物”与人类互动不断增多,无可避免产生损害与侵权风险。不同于奇点来临后的强人工智能,弱人工智能尚未具备独立承担法律责任的条件,但与传统 “物”之侵权不同,弱人工智能侵权特征表现为侵权形态的多样性、侵权原因的复杂性以及控制手段的隐秘性,如何合理分配弱人工智能的侵权责任,从而推动技术进步并保障技术安全成为现行法律亟待回应的重要问题。

2.1 责任主体

导致人工智能侵权的原因多种多样,包括人工智能产品缺陷、使用人 (监管人、第三人等)的错误操作以及人工智能本身的独立判断等,在人工智能与人类互动导致损害的过程中,责任主体有以下可能[3]

(1)制造商 (设计者、经销商等)。人工智能作为产品本身的缺陷,包括制造缺陷、设计缺陷和警示缺陷,应由制造商 (设计者、经销商等)承担责任。如案例三中,You Tube应对存在漏洞的算法导致的损害结果负责;实务中汽车制造商对汽车电子控制系统设计缺陷、定速巡航系统缺陷亦承担产品责任。

(2)使用人 (监管人、第三人等)。目前的弱人工智能尚未具备独立行为能力,使用过程离不开人类控制与监管,即便使用者并不了解、无法预测人工智能的行为,仍需为其行为承担责任[13]。如案例一中GPS提供的路线指引离不开驾驶员的独立判断;Google汽车Autopilot系辅助驾驶系统需要驾驶员保持对车辆的控制和快速反应;自动驾驶模式下的飞机驾驶员仍有义务对飞机保持严密监控。此外,第三人通过与人工智能互动等方式对其自我学习结果产生影响致使损害发生,也应当承担责任,如聊天机器人自动学习的语言内容与使用者的语言习惯有直接关系;黑客对系统漏洞的攻击可引发隐私泄露等一系列严重后果。因此,弱人工智能的使用人、监管人乃至第三人都是可能的责任主体。

(3)人工智能本身。特定情况下,弱人工智能符合逻辑的正确决定也将导致损害,产生人工智能本身承担责任的可能。例如:两辆完全自动驾驶汽车在高速公路上同向行驶,A车在左车道,B车在右车道,A车在B车略前方。一头鹿突然出现在左车道中间,A车立刻做出决定,向右车道打方向以避免撞到那只鹿。右车道内的B车同样做出决定,向右侧打方向以避免碰撞到A辆车,撞到了右面的一棵树并导致B车内乘客受伤。两辆自动驾驶汽车均正确运行并做出最安全的决定,由人工智能本身承担责任似乎最符合公平正义的理念。当前,美国国家公路运输安全管理局 (the National Highway Transportation Safety Administration)已承认车辆自动驾驶系统作为车辆 “驾驶人”,由人工智能本身承担责任的情境并不遥远。

最近的ADVANCE-ON研究[19]纳入11 125例2型糖尿病患者,分析了WHtR、BMI、腰围和WHR预测2型糖尿病患者心血管疾病发生的作用,结果表明,WHtR的预测作用可能轻微优于BMI和WHR,且WHtR以0.55为截断值可较好地预测主要心血管事件。尽管研究的终点事件不尽相同,但是本研究显示WHtR预测2型糖尿病发生NAFLD的截断值为0.57,与ADVANCE-ON研究结果相近。WHtR预测2型糖尿病发生NAFLD尚需进一步研究。

此外,在人类与人工智能的复杂互动中,尤其是弱人工智能尚离不开使用人监督操作的现阶段,更多出现混合责任的情况,如人类驾驶员在不利的天气条件或路况下开启自动驾驶模式,以及未能在特定情况下重新控制车辆等,此时,事故原因的界定及责任的合理分配将更为困难。

崔:关于比赛,一直以来我有这样一个困惑。许多有德国学习背景的钢琴家或学生,总喜欢强调“正统”“特殊细节”,甚至说到“准则”。比如在演奏莫扎特《F大调奏鸣曲》(K332)时,他们总喜欢说“某些句子的开头必须加重音”,并将其视为颠扑不破的“准则”,反之则是“错误的演奏”。但这样一来,结果就是有许多学生,以千篇一律的方式演奏同样的作品。您怎么看待这样的观点?在比赛中,您有最为看重的“准则”吗?

2.2 最优选择

无论是通过传统侵权法体系还是产品质量法体系解决弱人工智能侵权责任分配问题,事故原因的查明均系关键所在,但只有制造商才具备技术与数据优势进行调查。此外,正如霍姆斯法官所说, “最安全的方式是将风险交给决定采取何种预防措施的人。”[14]人工智能的制造商掌握着最全面的制造与改进技术,对弱人工智能具有最强的控制权。无论从事故原因的确定还是从风险控制方面来看,制造商都具有最优主体地位,具体而言:

(1)调查优势。人工智能的运作过程类似 “黑匣子”,无论是法院还是其他专门调查机构,在事故原因调查中都需要人工智能制造商配合以获得相关数据,如案例二中,美国国家公路交通安全管理局作为调查主体要求特斯拉公司移交自动驾驶系统引入以来的一切设计变更与更新的详细信息,以及接下来四个月的更新计划。弱人工智能的运作过程类似 “黑匣子”,制造商在推动 “黑匣子”转变为 “玻璃匣子”的进程中发挥核心作用。目前,各国已开始推动人工智能的透明化进程,欧盟要求配置大量对公众产生影响的算法的公司,必须在2018年前对所创建模型的内部逻辑做出 “解释”,美国国防高级研究计划署也制定了 “可解释的人工智能新计划”力图对人工智能深度学习进行解释[15]

(2)控制优势。由于制造商掌握着弱人工智能的核心技术并在制造、设计、警示方面具有主动权,较于其他主体,制造商对人工智能产品更为了解,更有利于控制事故、改进技术,具有最低的预防成本,根据汉德公式,由制造商作为人工智能侵权的第一责任人具有合理性。制造商对弱人工智能行为缺乏预见能力并不能成为其拒绝承担产品责任的 “挡箭牌”,现代侵权法的多样性风险路径扩张了风险预见能力与预见范围[5],制造商 “合理预见”范围也进一步扩大,必须预见人工智能产品可能的一切用途,而不局限于其宣称的功能。而随着弱人工智能技术发展,越来越多弱人工智能将独立运作,责任承担将进一步由混合责任向制造商责任倾斜。

制造商的第一责任人地位也引发了一系列担忧:一方面,面对不可预见的产品责任,制造商将失去开发新产品的动力从而阻碍技术进步[16]。严格的产品责任使中小企业很容易因几起诉讼而破产,大企业则成为侵权诉讼的 “深口袋 (Deep Pocket)”背负沉重枷锁;另一方面,制造商采取各种手段转移责任使产品责任名存实亡,从而对人工智能市场发展产生负面影响。如将具备看护功能的人工智能保姆作为 “玩具”销售,消费者难以证明对其看护功能的 “合理期待”,出现问题后难以归咎于产品责任[3];或与消费者签订格式条款要求消费者保持注意义务并承担最终风险,如Tesla要求自动驾驶模式下驾驶员的手经常保持在方向盘上并保证控制权,将责任转移到使用人。

事实上,制造商的第一责任人地位并不会成为技术发展的阻力,相反,让使用者承担责任才会导致消费者不愿意购买人工智能产品,阻碍市场推广与技术发展。历史上许多具有净安全效益的新产品 (如飞机、疫苗、药品等)造成损害后的责任仍由制造商承担,片面豁免制造商责任并不能成为技术革新的推动力[17]。在新技术带来的巨大市场与激烈竞争面前,制造商有动力承担责任以抢占蓝海市场,如Volvo总裁宣称将 “对其自动驾驶模式下汽车造成的损失承担全部责任”。因而,确立产品责任为核心的责任分配体系为弱人工智能时代的最优选择,当然,面临新技术、新产品带来的风险与挑战,在制造商承担产品责任的具体方式上,可参考以下路径加以缓和:

(1)责任限制。①免责事由。根据 《产品质量法》规定的免责事由,未将产品投入流通、产品投入流通时引起损害的缺陷尚不存在、科技发展水平限制可作为免责事由进行抗辩,但后两种抗辩事由应采取更严格的标准,要充分考虑到制造商对人工智能自动学习、自我发展能力的预测与控制能力。②责任限额。科技进步与风险伴生,以航空法的发展为例,20世纪初飞机的发明对当时人类社会的冲击并不亚于人工智能时代的到来,为保障航空公司免于大规模侵权诉讼,1929年签订的 《华沙条约》对国际航空运输中的承运人责任、损害赔偿标准等做出了规定,促进了技术创新与航空产业发展[18]。面对弱人工智能造成的不可预知的侵害,可参考航空法责任限额方式对制造商责任进行限制。③合理替代设计。制造商并不因人工智能带来净效益而免责,但为缓和制造商责任并防止诉讼泛滥,在缺陷的认定上可采合理替代设计标准,即制造商若能证明不存在其他合理替代设计以避免损害可减免责任[9]。在完全自动驾驶车辆基于独立判断仍不免发生事故的情况下,制造商并无合理替代设计方案避免事故,即便人类驾驶员也无法做出更好的选择,根据风险-效用理论并不能认定自动驾驶车辆存在缺陷,因而制造商在上述情况下可免于承担责任。

工程项目作为一个临时的组织体系而独立存在,为了实现企业的项目规划目标,只有提升物资采购的管理水平,才能全面有效地保证工程项目建造的物资资源的精准供给。规范物资的采购机制,应用计算机、网络技术及电商平台等手段,缩短物资采购周期,降低采购成本;将工程建造过程与物资供应过程无缝对接,尽可能地减少库存、消除二次搬运,避免停工待料的情况发生,避免物资延误生产的事件发生,进而达到精准物资供应管理。

现阶段,我国农村经济合作组织的成员之间是平等互利的关系,且组织内部实行民主管理,但是也经常会受到其他因素影响,在此基础上,我国相继出台了《农村专业合作社法》等多部法律,力求让农村经济合作组织在法律的框架内,建立长期的契约关系,从而有效提高农村经济合作组织的主体地位,做到价值和公理的合作。

长远来看,确定人工智能有限法律人格或特殊法律地位系大势所趋[7],当人工智能自治性增强到具有独立行为能力的转折点——便产生了独立承担民事责任的必要性与可能性。2016年,欧洲议会向欧盟委员会报告第59 (f)项建议: “从长远来看,要创设机器人的特殊法律地位 (a special legal status),以确保至少最复杂的自动化机器人可以被确认享有电子人 (electronic persons)的法律地位,以弥补人工智能所造成的任何损害,并适用于机器人做出自主决策或独立与第三人交往的情形”。除技术突破外,还需辅以劳动法、税法、保险法、公司法、信托法乃至宪法等法律的变革,才能使人工智能享有独立财产并享有一定程度的私法 “人格”[8]

2.3 制造商义务

弱人工智能时代,法律调整的首要任务是在防范人工智能带来的风险与鼓励科技创新之间寻求平衡,由于制造商在事故原因调查、风险控制、技术革新方面都具有显著优势,并可通过责任限额、税收、基金及保险等手段分散风险,故以产品责任为核心的责任分配体系具有合理性与可行性。围绕制造商责任,基于弱人工智能特点,制造商还需承担如下义务:

(4)动物:弱人工智能的理性水平尚处初级阶段时,抛开 “人格”与 “身份”的顾虑,动物或许是更为合适的类比对象。动物饲养人或管理人实际控制、管理着动物,并了解动物的习性,比一般人更能注意和防范损害发生,应当对动物采取安全措施并负合理注意义务,对动物造成的损害承担侵权责任。然而,此种类比将弱人工智能侵权责任施予实际控制者 (如使用人,往往是消费者),并不深究损害原因[13],但事实上,实际控制者并不掌握人工智能的运作原理,不能预测其行为趋势并防止损害发生,由其承担替代责任并不公平。

(2)培训与训练义务。弱人工智能的特殊性在于其不断的自我学习与自我改进能力,为确保制造商对其行为的 “合理预测”,在人工智能产品进入市场前,必须保证具备足够的 “前市场测试”使操作系统具有足够的学习量[19]。以医疗机器人 “达芬奇”为例,其投入市场后已引发多起产品责任诉讼,法院普遍认为制造商应对消费者进行培训指导,个别法院甚至认为制造商还应当负有对机器人的 “训练义务”[9]

3.课堂情景模拟再现。根据教师讲解的正确受理投诉的处理步骤,再结合小组交流的处理投诉的心得,在教师的指导下,由选中在课堂播放作品的小组成员,在课堂上再次完成小组客户投诉的情景模拟。其他小组,作为学习者观看,并且通过“雨课堂”发送弹幕的形式向教师发表自己的看法及体会,促进课堂交流互动,提高课堂沟通效率。意图是通过发送弹幕的形式,让学生能及时自由地发表自己的看法及体会;利用信息技术提高课堂沟通效率,克服了以往课堂发言占用较多时间,影响教学进度的问题;因人人都能参与,增加了学生的学习兴趣;调动了学生学习的主观能动性。

(3)警示义务。现阶段弱人工智能尚离不开使用者监督,但消费者对人工智能的想象与信赖很容易产生对其安全性与便利性的 “合理期待”,导致对人工智能的过度依赖与注意力分散,因此,除事先对消费者进行培训外,制造商还应承担及时的风险警示义务[9]。案例二即人类驾驶员对有条件自动驾驶模式产生过度依赖所导致的,事发时驾驶员正在观看电影,人类驾驶员无视车辆发出的视觉警告及语音警告导致了事故发生。针对此种情况,除及时有效的警示外,制造商还应采取容错设计以避免人类在与人工智能互动过程中发生错误。案例二事件发生后,特斯拉升级了Autopilot系统,若司机对系统警告没有反应,将暂时阻止车主使用该系统。通用汽车也计划在半自动驾驶汽车中安装包含能够探测出驾驶员是否困倦或未注意路况功能的软件,并采用声音和视觉方式引起驾驶员注意,若警告无效,制造商将通过车辆的对讲系统与人类驾驶员对话沟通。如果人类驾驶员仍未有反应,车辆就会在路边停靠,进一步确保人工智能安全性[19]

(6)物:弱人工智能远未发展到 “电子人”阶段,人类依旧保持着对弱人工智能的监管与控制。不同于对未成年人的监护及对动物的管理,人类对弱人工智能的监督主要体现在两方面:一方面,体现为制造过程中制造商对程序和算法的设定、技术的改进,以及在后续维护中对程序的更新及漏洞的弥补;另一方面,体现为应用过程中使用人对控制权的掌握。现阶段,人类对弱人工智能的权益并未脱离占有、使用、收益、处分的范畴,将人工智能定位为 “物”,特别是被人们生产、使用和消费的 “产品”更为合适,有利于推动人工智能商业化进程。

青玉的台面发出一阵阵裂响,数道裂纹从天葬师的脚下生出,朝着四外延展。天葬师的双腿颤抖着,双臂也颤抖着,利刃带起的风,割在他裸露的头脸上,留下丝丝血痕。羽袍裹在他的身上,宽大的袍襟迎风招展,宛如夜色中展翅腾空的苍鹰。

(5)披露义务。人工智能是当前发展最前沿的技术之一,消费者很难通过检索代码等方式发现程序、算法错误等产品缺陷[21]。制造商出于商业秘密保护等目的可能不愿意透露产品信息,但举证责任倒置的要求及合理替代标准的确立都迫使制造商负担一定程度的信息披露义务[20]。此外,结合产品责任保险,制造商还可通过披露保费的方式使消费者了解人工智能产品的潜在风险,从而做出正确的消费决定[19]

3 弱人工智能时代的法律态度:激进还是保守

技术的发展对法律制度有着直接影响,甚至推动全新法律制度的创造[22],反过来,法律对科技发展的回应方式又影响了技术革新的进程。人工智能时代对法律带来的挑战远甚于以往任何时期的技术变革,在人工智能产业发展三年行动计划的开局之年,我们必须思考:现有的法律体系应以何种姿态应对人工智能的飞速发展?如何在促进技术革新与维护各方权益之间取得平衡?

同种种子在相同温度下用液体冷却介质处理不同时间后,其发芽率有显著区别。以-15℃处理为例,处理1.5 d的X1,F6,H1,H4和K17种子4 d的平均发芽率最高,处理6 d的S10和K16种子4 d的平均发芽率明显高于其他处理时间(见图3)。在-15℃下处理不同时间的7 d平均发芽率可以看出,除S23和K17外,其余6种玉米种子经液体冷却介质处理后,7 d的平均发芽率最高且均接近100%(见图 4)。

耕地土壤类型及养分数据来源于2009-2012年“贵州省测土配方施肥项目”中长顺县土壤耕层取样的3 498个样品测试数据,采样深度为土壤耕作层0~20 cm,样点分布均匀并带GPS信息。耕地资源数据来自2007年县国土资源局土地利用现状图及2017年土地变更数据并提取旱地和水田,行政区划图等基础数据根据2014年[黔南府呈(2014)2号]文件《关于调整长顺县乡镇行政区划的请示》进行更改。

3.1 对现行法律体系的挑战

人工智能的最大特点在于其自我学习、自我决定的能力,而现行法律则是建立在 “所有的决定都是由人类做出”这一假设的前提下,长远来看,两者必然产生冲突,在宪法、刑法、民法等各个领域引起重大变革。在当前的弱人工智能时代,冲突尚未加剧,但摩擦早已显现,弱人工智能在合法地位、监管手段、责任承担等方面与目前法律体系不相适应,亟待法律及时做出调整与回应。

(1)合法地位的挑战。人工智能的进步正在以无与伦比的势头挑战现有法律体系,以自动驾驶汽车为例,现有的法律制度、政策、保险体系等,并不是为自动驾驶时代的交通量身定制的,势必面临排斥反应[23]。2017年7月,百度CEO李彦宏 “乘坐”无人驾驶汽车在北京五环上行驶的事件引发了对无人驾驶合法性的争议,倒逼现行交通法律法规的破冰。12月,北京市交通委联合北京市公安交管局、北京市经济信息委制定发布了 《北京市关于加快推进自动驾驶车辆道路测试有关工作的指导意见 (试行)》和 《北京市自动驾驶车辆道路测试管理实施细则 (试行)》,规范并推动了自动驾驶汽车的实际道路测试。自动驾驶领域的合法性挑战在国际上早已呈现,2016年 《国际道路交通公约 (日内瓦)》修正案承认了符合条件的自动驾驶合法身份,德国、西班牙、新加坡和美国部分州也肯定了自动驾驶汽车的合法性,相反,印度则于2017年7月宣布禁止自动驾驶汽车上路。

(2)监管体系的挑战。面对人工智能带来的不确定性与潜在风险,放任自流并非明智选择,如何构建适度有效的监管体系,引导人工智能在正确的轨道上发展成为各国立法的重要课题。早在2016年,欧盟议会法律事务委员会发布 《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》 (Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics)及 《欧盟机器人民事法律规则》 (European Civil Law Rules in Robotics),并于2017年通过一份决议 (Resolution),提出了具体的立法建议,加强对人工智能的监管成为该项决议的重要内容,具体包括设立专门机构、确立伦理准则、针对特定用途人工智能出台特定规则等。目前,无人驾驶汽车及无人机领域的监管盲区已经呈现[24],在及时填补特定领域法律空白的同时,学习欧盟确定针对人工智能确定整体监管框架与伦理准则成为当务之急。

(3)责任体系的挑战。随着人工智能的广泛运用,越来越多人工智能侵害案件对现行责任体系提出挑战,强人工智能甚至能成为侵权责任、违约责任乃至刑事责任的主体。弱人工智能在逐渐脱离使用者监督、控制的过程中,责任分配方式也从使用者过错侵权转移至生产者的产品责任。而现阶段弱人工智能仍需要人类操作与监管,存在大量混合责任的情况,责任的确定与转移难以 “一刀切”,目前各国立法对此的回应较为保守,中美两国则仍在现行法律体系内确定自动驾驶责任,人类驾驶员仍居于责任主体地位。德国2017年修订的 《道路交通法》则更进一步,试图在制造商与驾驶员之间明确责任转移的标准,但此举的合理性与可行性遭到质疑。但长远来看,面对弱人工智能的发展,对现行法律体系的变革与责任的重新分配势在必行。

3.2 法律对技术革新应对手段

法律必须是稳定的,但又不能一成不变[25]。人工智能的迅速发展将彻底改变人类生活甚至改造世界,对现行法律体系的挑战也是前所未有。法律应及时做出回应,在激进与保守、稳定性与适应性之间寻求平衡点:一方面,对人工智能合法地位采取宽容态度,以鼓励技术发展;另一方面,确立科学合理的监管框架和责任分配体系,以维护安全稳定。此外,应对技术革新,弱人工智能时代的法律体系更要处理好以下三方面关系:

(1)推动创新与保障安全。科技的进步从来是一把 “双刃剑”,法律应在技术进步与安全稳定之间起到平衡作用。人工智能引领人类通往未知世界,被称为 “第四次工业革命”,在构建人工智能法律体系与监管手段时,必须具备充分的前瞻性,既要防止刻板传统的监管阻碍创新,又要防止法律盲区引发系统性风险[9],应致力于 “建立以安全为核心的法律价值目标、以伦理为先导的社会规范调控体系和以技术、法律为主导的风险控制机制[26]。”

(2)信息披露与知识产权保护。在人工智能监管框架内,从事故原因调查到产品标准确立,均离不开制造商对人工智能技术的合理披露,这与商业秘密的保护存在冲突。然而,人工智能自我学习能力的提高与发展将带来制造商无法控制的风险,适当的权利让渡不可或缺,对人工智能 “黑匣子”运作过程的解读与一定程度的信息披露是保障人工智能安全性的必经之路。

对律所和律师个体来说,参与法院纠纷处理,主要是为了拓展业务渠道、提升品牌影响力等,至于是律师调解亦或是其他形式并不重要,甚至牺牲一些时间和精力免费为法院干活也是可以接受的。

(3)制造商责任与消费者权益。特别是现阶段,一方面,弱人工智能尚离不开使用者监督,制造商采取种种手段将最终责任转嫁到消费者身上;另一方面,消费者对人工智能的合理期待又无法避免其产生合理依赖,在允许自动驾驶汽车的人类驾驶员手离方向盘、上网、浏览邮件的同时,又要求其保持随时掌握车辆控制权实属强人所难。弱人工智能发展的最终方向是脱离使用者监督,不断增强自治性与独立性,因而应当构建以产品责任为核心的责任分配体系,强化制造商责任,并辅以保险、基金、税收等手段分散制造商风险,从而平衡制造商与消费者权益并推动技术进步。

4 结论

人工智能的发展无论在伦理性层面还是制度性层面都引发了广泛争议,从长远看,必然给人类社会带来翻天覆地的变化,政治、经济、法律等各个领域都将发生深刻的变革;而从短期看,目前技术发展水平仍处于弱人工智能阶段,我们既不必杞人忧天地对人工智能产生 “终结者”的恐慌,又不可故步自封无视技术的进步,法律则应顺应时代发展,在对人工智能合理定位后做出恰当的回应,为人工智能发展营造良好环境。

参考文献:

[1]RUSSEL S,NORVING P.人工智能:一种现代方法:第2版[M].姜哲,译.北京:人民邮电出版社,2004.

[2]党家玉.人工智能的伦理与法律风险问题研究[J].信息安全研究,2017 (12):1081.

[3]WEAVER J F.Robots are people too:How siri,google car,and artificial intelligence will force us to change our laws[M].Santa Barbara:Praeger Publishers,2013:9.

[4]KURZWEIL Ray.奇点临近[M].李庆诚,译.北京:机械工业出版社,2011.

[5]KOWERT W.The foreseeability of human-artificial intelligence interactions[J].Texas law review,2017 (96):183,192.

[6]SOLUM L B.Legal personhood for artificial intelligence[J].North Carolina law review,1992 (70):1225-1287.

[7]袁曾.人工智能有限法律人格审视[J].东方法学,2017 (5):50.

[8]BAYERN S,BURRI T,GRANT T D,et al.Company law and autonomous systems:A blueprint for lawyers,entrepreneurs,and regulators[J].Hastings science and technology law journal,2017(9):135-161.

[9]HUBBARD F P.Sophisticated robots:Balancing liability,regulation,and innovation[J].Florida law review,2014 (66):862-1865.

[10]郑娟,赵岩林.电子代理人法律问题探析[J].政法论丛,2004 (1):51-52.

[11]WAGNER G.Children as tortfeasors under germany law[M]//MARTN-CASALS Miquel.Children in tort law,part I:Children as tortfeasors.New York:Springer-Verlag Wien New York,2006:243-244..

[12]杨立新.人身权法论析[M].北京:人民法院出版社,2006:862.

[13]DUFFY S H,HOPKINS J P.Sit,stay,drive:The future of autonomous car liability[J].SMU Sci.& Tech.L.Rev.,2013 (16):473-476.

[14]HOLMES JR O W.The common law[M].Boston:Little,Brown,and Company,1881:117.

[15]陆默.AI侦探:探索 “黑匣子”秘密[J].世界科学.2017 (9):25-27.

[16]BRODSKY J S.Autonomous vehicle regulation:How an uncertain legal landscape may hit the brakes on self-driving cars[J].Berkeley Tech.L.J.,2016 (31):865.

[17]MARCHANT G E,LINDOR R A.The coming collision between autonomous vehicles and the liability system[J].Santa Clara Law review,2012 (52):1331,1337.

[18]BROCK C.Where we′re going,we don′t need drivers:The legal issues and liability implication of autonomated vehicle technology[J].UMKC L.Rev.,2015 (83):782-783.

[19]GEISTFELD M A.A roadmap for autonomous vehicles:State tort liability,automobile insurance,and safety regulation[J].Cal.L.Rev.,2017 (105):1659.

[20]WEBB K C.Products liability and autonomous vehicles:Who′s driving whom[J].Rich.J.L.& Tech.,2017 (23):34-37.

[21]GRAHAM K.Of frightened horses and autonomous vehicles:Tort law and its assimilation of inventions[J].Santa clara law review,2012 (51):1270.

[22]苏力.法律与科技问题的法理学重构[J].中国社会科学,1999 (5):65-68.

[23]李开复,王咏刚.人工智能[M],北京:文化发展出版社,2017:181.

[24]栾爽.无人机法律规制问题论纲[J].南京航空航天大学学报 (社会科学版),2017,19 (1):35-36.

[25]罗斯科·庞德著,邓正来.法律史解释[M].北京:中国法制出版社,2002:1.

[26]吴汉东.人工智能时代的制度安排与法律规制[J].法律科学:西北政法大学学报,2017,35 (5):128.

The Legal Response of the Era of Artificial Narrow Intelligence ——Establishing a Responsibility Distribution System focusing on Product Responsibility

Qian Siwen

(Changshu Institute of Technology,School of Economics and Management,Suzhou 215500,China)

Abstract: Although the artificial narrow intelligence possesses the deep learning ability,it has not yet generated the self-consciousness and emotion.It should be regarded as the object of the legal relationship.In the infringement cases involving artificial intelligence,the manufacturers have advantages in terms of casual investigation and technical control,thus to build a responsibility distribution system based on the product liability is the optimal choice to balance each party’s rights.Besides,manufacturers can mitigate their responsibilities through liability restrictions,taxes,funds and insurance.However,manufacturers are still burdened with the obligations of the burden of proof,training,warning,maintenance and disclosure because of the specific characteristic of artificial intelligence.Under the challenge of the artificial narrow intelligence,the existing legal system must respond to the progress of science and technology under the premise of coordination stability and adaptability.

Key words: Artificial narrow intelligence;Responsibility distribution;Product liability;Technology and law

中图分类号: D90-059

文献标识码: A

收稿日期: 2018-06-19

作者简介: 钱思雯(1986-),女,江苏苏州人,常熟理工学院经济与管理学院副教授;研究方向:科技法、民商法。

((责任编辑 柯文先)

标签:;  ;  ;  ;  ;  

弱人工智能时代的法律回应-构建以产品责任为核心的责任分配体系论文
下载Doc文档

猜你喜欢