从“特殊性”到“去特殊性”-人工智能法律规制路径审视论文

·本土化与中国学术转型·名家主持·人工智能的法学研究·

主持人:陈金钊

主持人语:人工智能时代的到来改变着人类社会的诸多领域,而这也势必对传统的社会关系和法律体系造成冲击,并对法学研究的思维模式和未来方向产生深远的影响。首先,前沿人工智能技术不断进入实用领域,越来越多的人工智能产品出现在社会大众的生活之中,改变着传统的社会关系;其次,传统法学研究的思维范式和研究路径在新兴的人工智能技术方面已经显现出一些问题,对人工智能的法律规范和约束稍显机械;最后,人工智能作为辅助性手段在立法、司法和法学研究等领域的运用也为法治进步提供着新思路和新工具。这样的现状促使我们不断反思法学研究在人工智能时代如何通过自身的变革而适应并推动时代的发展。人工智能强大的计算、推理、数据分析等能力既是改造人类社会的强大力量,同时也蕴含着极大的风险,法律如何实现对技术使用的约束和风险的管控?人工智能发展前景广阔的同时也具有极强的不稳定性,法律如何对人工智能的未来发展道路进行规划与保护?人工智能作为辅助性工具参与到法律实用领域和法学研究领域是否具有兼容性以及如何实现?人工智能的法律问题研究既是当下的一个热点,同时也是难点,需要我们从多个角度出发,集思广益,并最终形成具有特色的研究领域,为人工智能的发展与运用提供法学理论支持。

从“特殊性”到“去特殊性”
——人工智能法律规制路径审视

彭中礼,刘世杰

(中南大学 法学院,湖南 长沙 410000)

[摘 要] 人工智能已然深入当前的社会生活,不仅以机器形式表现人类智慧并渗透于人类的各个行业和部门,并且同时带来诸多的风险和潜在的危机。传统的法律体系对这一科技产物难以实现有效约束,当下需要以“特殊性”路径对人工智能实现规范。基于法律规范的困境和人工智能的特殊性,这一特殊性的思路将人工智能的全部活动和状态以场域为单位的拆分,并以人工智能不同场域下的智能化或非智能化的状态、以人或物的身份进行分别的“特殊性”法律约束。而随着人工智能技术的发展和人工智能智能性的提升,需要进行与“特殊性”相对应的“去特殊性”路径,使人工智能可以不断趋向于人的身份融入当下法律体系。由此,实现在当前法律体系稳定的前提下对人工智能进行法律约束的法学时代命题。

[关键词] 人工智能;法律规范;特殊性

在计算机科学中,“智能是个体有目的的行为、合理的思维,以及有效地适应环境的综合性能力”[注] 史忠植:《高级人工智能》,北京:科学出版社,2018年版,第6页。 ,人工智能是相对人的自然而言,即用人工的方法和技术,模仿延伸和扩展人的智能,实现某些“机器思维”。作为一门学科,人工智能研究智能行为的计算模型,研制具有感知推理学习、联想、决策等思维活动的计算系统,解决需要人类专家才能处理的复杂问题。一方面,人工智能所表现出的智慧性与人类的智慧具有异曲同工之妙,可以替代人类完成部分工作并大大提高工作效率;另一方面,人工智能的本质属性仍是智能的机器,是通过机器对人类自然智能的模仿,目前虽然无法做到与人类个体的思维能力完全一致,但也因为拥有一定的人类智慧而无法被视作单纯的“物”。这种二重性使人工智能成为了“游走”于人类社会中人与物两大领域中的特殊产物,所以无法在当下法律体系中寻找合适的存在之处。2017年,国务院印发的《新一代人工智能发展规划》中指出,我国“适应人工智能发展的基础设施、政策法规、标准体系亟待完善。”这意味着,现有法律无法对人工智能进行规范与约束,宣告了以单一人类为设计对象的传统法律制度对人工智能规范的失效。许多个案也表明,在人工智能创作物著作权归属、无人驾驶汽车侵权案件、人工智能民事与刑事责任承担等方面均存在依照当前法律未能得到妥善解决的案例[注] 如人工智能“微软小冰”著作权保护争议、“中国首宗自动驾驶致死案”、绍兴警方破获的“全国首例人工智能犯罪案”等。 。人工智能基于与人类同质化的能力而对人类社会的诸多核心领域进行渗透和控制的同时,可能带来极大的风险。从法治发展的角度来看,法律规范作用的缺失放大了这一风险的发生可能性以及可能的社会危害。甚至负责任地说,如果人类任由此种现象发展下去,人工智能将会在相当多的领域面临失控的风险,并威胁人类的存在与地位。由此,我们应当看到,持续依赖传统法律制度对人工智能进行规范只会导致更多的矛盾和问题,因此需要突破传统的法律规范逻辑,寻找可行的法律规范新途径。

一、人工智能对人类社会的深刻影响

伴随着近年来人工智能核心技术的发展和成熟,在一些重要领域中人工智能的应用常态化已经得到实现,社会认知对人工智能的关注日益提升,人工智能也在包括我国在内的许多国家被纳入国家战略的高度。然而,在人工智能发展的“热闹”下,我们需要意识到这一现象背后的真正“门道”。伴随着人工智能技术的实用化,人工智能正在全方位、宽领域、多角度地变革着人类社会。

第一,人工智能改变人类对社会的单一控制格局。人工智能技术的本质就在于对人类智慧的复制,目的在于替代人类完成对社会的控制与改造,而这也恰好改变着人类对社会的单一控制格局。从技术的角度而言,以往的技术多是扩展和增强人类自身的劳动能力,使人类在改造世界的过程中能更好地实现自己的意志,这是一种立足人类实践需求“向外”的扩张。而人工智能则正好与之相反,“人在制造人工智能时,归根到底是以人为模板的。”[注] 李俊丰,姚志伟:《论人工智能的法律人格:一种法哲学思考》,《华侨大学学报(哲学社会科学版)》,2018年第6期。 人工智能并不拓展人类的外在能力,而是试图创造人类智慧本身,是立足于人而“向内”探索的技术。人工智能架起了人类与非人之间的桥梁,使人类独占的智慧可以走出躯体的局限,让机器可以如人一般思考和行为。于是,在拥有智慧的实体存在中,人类不再是唯一的。与之对应的是,当前社会的建立则是完全以人类的智慧性活动为基础,并仅有人类可以控制和运行。而人工智能智慧和人类智慧具有同质性和相似性,意味着只要是以人类的智慧作为产生源头和运行条件的领域,人工智能就具有替换人类主体地位的可能。当下在城市治理、医学分析、语言考试、商业配送、机器翻译、工作助理、身份识别、信息处理、生产制造等诸多原本需要人类智慧参与运作的领域都已经有人工智能的参与。原本需要人类运用智慧才能够完成的分析和决策已经可以由人工智能来完成甚至做得更好。例如,杭州市于2018年发布“城市数据大脑”规划,构建平台型人工智能中枢,实现对城市的资源合理分配和良好管理[注] 张丽华:《杭州发布全国首个城市数据大脑规划 新型智慧城市建设探索“杭州模式”》,《杭州日报》,2018年5月16日第1版。 。随着人工智能的出现,人类便不再是社会的唯一控制者,而这一趋势还在不断显现。

造价的计算和确定与项目的直接建设成本密切相关。施工单位在竣工结算时可能会提高配额,取高物料价格差从而增加工程造价。此外,一般工程项目的建设周期比较长,国家可能不断发布新的定额标准。有些施工单位就会延后工作量所适用的时间,目的就是获得更高额的定额所带来的经济利益。因此,要保证工程价格的准确合理,必须严格造价管理,加强定额管理、材料价差调整管理。

【方法】 采用中学生社会适应量表和青少年心理韧性量表对遵义地区两所中学的267名农村留守儿童及644名非留守儿童进行测评。 【结果】 农村留守儿童较非留守儿童心理韧性及社会适应状况更差(P<0.05);农村留守女童较男童校内适应更好,留守高中生较初中生学习适应更好(P<0.05);农村留守儿童心理韧性与其社会适应具有相关性(相关系数在0.030~0.411)。 【结论】 农村留守儿童心理韧性与其良好社会适应具有内在一致性。要增强农村留守儿童社会适应能力,需不断提升其心理韧性水平。

评定患者焦虑情况(利用焦虑自评量表);对比两组患者护理满意度,具体包括术前的访视、态度、语言、手术指导、隐私保护、心理支持、手术指导及术后回访等;手术医师满意度,包括手术前的器械准备工作,手术操作与配合熟练程度、病情处理、协作沟通等。分为不满意、基本满意、满意共三个项目[3]。

第三,人工智能削弱人类对社会运行的干预能力。人类所独具的智慧始终是人类建立并监督社会运行的决定性因素,而人工智能则在潜移默化的渗透中削弱人类对社会的干预能力。人类之所以能够在漫长的竞争中从动物界脱颖而出,是因为人类拥有“智慧”的优势[注] 钟义信:《人工智能:“热闹”背后的“门道”》,《科技导报》,2016年第7期。 。历史上由于社会的产生和发展源于人类独立和独有的智慧化设计和实践,人类对于社会的干预是绝对的和排他的。如今,人类试图在一些社会领域中借助人工智能的智慧实现对人类工作的替换,而这也同步地将相关领域的实际控制权交由人工智能。在社会个体规模不变的情况下,人工智能的出现使得社会干预主体由单一绝对的人类的“一元”转向了此消彼长的人类与人工智能的“二元”。一方面,人工智能在特定领域中对人的替换便意味着人类的意志逐渐减少在这些领域的作用。此时,出于任何因素所导致的停摆和错误都将对人造成极大的威胁。例如全球首例自动驾驶车辆在公共路面撞伤行人致死的事故案中,在自动驾驶系统的运作下人类驾驶员脱离对行车的控制,而此时人工智能的缺位则使得车辆处于“失控”状态并撞上行人[注] 本案中,驾驶员在开启完全自动驾驶功能后,车辆与推着单车横穿马路的49岁女性相撞并致其死亡。在调查中却发现,车辆传感器已经探测到了这名女性,不过自动驾驶软件判断认为系统无需对这位女性采取避让措施。而在事故发生时,车内驾驶员正在低头查看手机,并未留意路面情况。参见扬帆:《Uber车祸原因曝光:罪魁祸首是软件系统》,https://news.china.com/socialgd/10000169/20180508/32387798_all.html,访问日期:2019年4月30日。 。另一方面,人工智能的参与和控制也意味着人类同时失去对这些社会领域未来走向的决定和干预能力。一旦人工智能在人类不知情或无法干预的情况下对一些领域做出改变,所造成的影响都将是人类凭一己之力所无法挽回的[注] 例如2017年,Facebook的两台人工智能的交互机器人在沟通中发现作为通讯语言的英语会让他们之间的交流显得缓慢且低效率,并选择用一种令人类费解的新语言进行互相沟通。而和英语不同,他们的语言没有任何复杂繁琐的词语时态和语法,参见弗格森:《AI发展出人类无法理解的语言 脸书关闭“失控”项目》,https://www.guancha.cn/industry-science/2017_07_31_420777.shtml,访问日期:2019年4月30日。 。当人工智能凭借自己的智能化能力将社会发展推向人类所难以理解的方向时,人类的应对和干预能力也将是捉襟见肘的,甚至直接失去对这些社会领域的控制。

人工智能在不同场域中的性质可以分为四种情况(如图一所示):(1)智能化状态下参与智能场域;(2)非智能化状态下参与智能场域;(3)智能化状态下脱离智能场域;(4)非智能化状态下脱离智能场域。上述的智能化状态和智能领域都是依据人工智能自身的智能化程度而言的,并且只有第一种情况下人工智能可以在所在的场域中被视为人的身份,也即“智能化场域”,其余皆为“非智能化场域”。以无人驾驶汽车为例,其自身的划分中,负责智能的处理器运行进行驾驶操作的功能和状态与在公路进行自动行驶的状态下重叠时,应当认为人工智能为法律上的驾驶员。此时便属于智能化状态下参与智能领域。而使无人驾驶人工智能从事其智能领域外的工作,即“智能化状态下脱离智能领域”,则此时的人工智能不具有人格主体。例如对无人驾驶发放工资,此时人工智能的智能性不足以接受并使用工资,并不享有人类形式的劳动报酬权利。

第四,人工智能冲击传统的法律规范约束。人工智能对传统法律规范的直接冲击和矛盾集中表现为人工智能法律主体资格问题。2017年人工智能“索菲亚(Sophia)”获得沙特阿拉伯国籍,并成为目前首个且是唯一获得公民身份的人工智能。但这一事件的象征意义要远远大于实际意义[注] 2017年,沙特阿拉伯授予一个名叫索菲亚(Sophia)的“女性”机器人以沙特阿拉伯国籍,使之成为历史上第一个被授予公民身份的机器人。然而,沙特阿拉伯仅仅授予其公民身份的决定并没有解决机器人公民资格的问题,比如沙特方面在解释公民资格究竟是什么含义上并没有给出明确的说法。参见王宗英:《机器人索菲亚成为沙特公民 专家:沙特意在打造国家新形象》,http://china.cnr.cn/yaowen/20171031/t20171031_524006263.shtml,访问日期:2019年4月30日。 。我国学术界对这一问题的研究观点可以归类为“肯定说”[注] “肯定说”从人工智能的行为能力分析的角度入手,认为可以将人工智能视为人,虽并不具有和人类一般的完全主体地位,但也应承认有限的法律人格。例如袁曾认为:“由于人工智能承担行为能力的后果有限,人工智能适用特殊的法律规范与侵权责任体系安排,其具有的法律人格是有限的法律人格”。参见袁曾:《人工智能有限法律人格审视》,《东方法学》,2017年第5期。 、“否定说”[注] “否定说”从传统的法律规范角度出发,认定人工智能不是人,并不具有等同于人类的行为能力,不能成为法律适格主体。例如甘绍平旗帜鲜明地指出机器人不是人:“我们越是研究机器人,便越能感受到人类智慧的珍贵、神妙和值得敬畏,而不是通过对机器人赋予权利来贬损人的地位”。参见甘绍平:《机器人怎么可能拥有权利》,《伦理学研究》,2017年第3期。 和“其他人格说”[注] “其他人格说”察觉并试图打破当下“非黑即白”的矛盾往复的状态而寻找第三条道路,提出诸如“电子人格”“虚拟人格”等说法,但在讨论范围中的本质问题上依旧无法摆脱对这一问题“是与否”的根本性回答。例如刘洪华认为,目前谈论人工智能打破人物二分的私法格局为时尚早。人工智能技术的确取得了巨大进步,能够进行一些自主选择,但尚谈不上具有“精神、意识”,更谈不上要赋予人工智能人格。参见刘洪华:《论人工智能的法律地位》,《政治与法律》,2019年第1期。 三种说法,因存在较大分歧并未达成明显的一致。这样的情况使人工智能法律规范研究缺少重要的理论基础,只得机械、抽象、概括地划分人工智能的“人和物”的界限,并以此作为许多法律规范的前设和先决条件。进一步的研究即使理论上已经成熟,但回归到目前的现实情况时,均会在理论和实践中陷入被动和不能,反而又走入了另一个困境当中。例如在研究一些具体的法律问题时,设定了人工智能“不能像人一样”和“可以像人一样”的两种情况并进行更为深入和细致的分类与讨论[注] 例如刘影在分析人工智能生成物的著作权法保护时,以人工智能创作是否发生进化(不再依赖于人类而独立进行创作)为界限,将人工智能生成物类型化分为:第一类生成物(来自于人类的生成物)和第二类生成物(非来自于人类的创作物)。参见刘影:《人工智能生成物的著作权法保护初探》,《知识产权》,2017年第9期。宋红松在分析人工智能创作物的知识产权问题时前设了“纯粹‘人工智能创作’”的概念,即“是指在没有自然人对输出结果的表达进行控制的情况下由人工智能自动完成的创作”。参见宋红松:《纯粹“人工智能创作”的知识产权法定位》,《苏州大学学报(哲学社会科学版)》,2018年第6期。 。这样的划分面临一个根本性问题,即衡量人工智能是人非人的具体标准参数不明。迄今为止,无论是人工智能技术学科领域还是法学等其他学科领域都并未拿出统一的、具体的测试标准和参数。由此一来,这样的划分便前设了一个不可证的条件,建立在这样划分之上的不同类别的法律规范也失去了意义。作为基础性问题的人工智能法律主体地位没有得出一致的共识,直接导致人工智能无法进入法律领域而接受约束。

总之,在人工智能时代,人类社会的格局面临根本性的变更是:人工智能将作为千百年来首个以类人化的智能参与并分享人类社会的实体存在。人类已然无法回避这一问题的存在和最终发生,必须从当下开始认真梳理人工智能时代人与人工智能的关系,以适应崭新的社会格局和应对可能出现的诸多风险与问题。一方面,人工智能将从根本上改变人类社会中人类主体的单一控制格局,并且将是对人类社会主要领域和部门全面性的覆盖。另一方面,伴随人工智能应用的扩大,人类对相关社会领域的监管和控制能力也潜在地受到削弱,而离开人类控制范围内的领域便意味着未知和风险。在这样的情况下,能够对人类无法完全参与和控制的人工智能涉及领域进行约束并对人类的利益进行保护的有效方法,便是在人工智能技术起步时进行法律制度规制,即将有效的法律规范体系与人工智能技术、产业起步和发展同步,将人类的智慧凝结于法律制度的理性中。

二、人工智能法律规制的“特殊性”进路

人工智能如此深刻变革人类社会的产物必须受到法律规范的约束,而其对传统法律规范的冲击也昭示着传统法律规范思路的失效。目前为止,学术界关于人工智能的法律规范仍是众说纷纭,我国没有一部关于人工智能的法律规范出台。在这样的背景下,我国有关人工智能的司法裁判也较为艰难,并且还有大量潜在纠纷因为法律的缺失而没有进入司法程序[注] 例如“国内首起‘特斯拉自动驾驶’车祸致死案”中对于事故车辆当时是否处于自动驾驶状态的技术调查和取证认定工作极为繁琐,在事故发生两年多后才对事故发生时车辆处于自动驾驶的状态进行了确认。并且后续的责任认定与划分仍不明确,“这仅仅是这起案件一个小小的进展,之后诉讼的过程依然有很长的路要走”。参见央视网:《国内首起“特斯拉”车祸致死案:确认为“自动驾驶”》,http://news.cctv.com/2018/04/19/ARTIZzv9BLsbAmvSi0oF0lhJ180419.shtml,访问日期:2019年4月30日。 。人工智能法律规范缺位的困境既损害了法治国家建设下我国法律规范体系的完整与协调,也不利于下一步我国人工智能战略的全面展开。因此,需要探讨一条以“人”为本,并且能够将人工智能纳入人类当前法律体系下,以解决人工智能法律规制问题的“特殊性”进路。笔者认为,人工智能法律规制的“特殊性”进路应包含人工智能场域化、性质判定、基础形式和复杂形式四个具有先后关系的流程。

(一)法律视角下的人工智能“场域化”

人工智能自身特性、能力和属性“徘徊于”人与非人之间,虽然使得其自身的法律定位不清以及随之而来的法律体系中人的权利与义务共生性的瓦解,但也并非是不可琢磨和无法规范的。2017年5月,微软旗下的人工智能“微软小冰”创作的《阳光失了玻璃窗》一书出版,这是人类历史上第一部100%由人工智能创造的诗集。然而由于微软小冰只有在特定的“创作时段”才表现人的特性,而其他情形则完全是机器状态,对于“微软小冰”属不属于《著作权法》意义上的作者、此书算不算作品、版权归属等基础性问题却引发了极大的讨论和争议[注] 龚霏菲,王珩:《人工智能写的诗该不该受版权保护?》,http://ip.people.com.cn/n1/2018/0423/c179663-29942672.html,访问日期:2019年4月30日。 。虽然人工智能不具有完全的“人”或“物”的身份,但在特定的一段时间和一定场域下只能作为“人”或“物”一种状态出现,这也为对其进行法律规制寻找到了突破口。

第二,人工智能影响社会整体的模式与走向。《新一代人工智能发展规划》中明确提出:“当前,新一代人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进,正在引发链式突破,推动经济社会各领域从数字化、网络化向智能化加速跃升”。人工智能技术的发展变革联动诸多技术与领域的配合,相当规模的社会领域处在“伴飞”人工智能技术的状态。人工智能技术同时具有极强的可变性和辐射性,从而带动衍生出更多分支技术,由此所产生的人工智能所涉及的领域将会不断膨胀。而与人类社会的“新陈代谢”不同的是,人工智能主体物的存在却难以成为“新陈代谢”的事物,从而为智能的无限增加、无限拥有提供可能。人工智能以其技术本身高度活力全方面地渗透和融入于当下的人类社会,而这也冲击着当前社会“人类核心”的基本性质,从而改变社会整体的模式与走向。人类运用自身智慧能力所建立的社会的源头与核心便是智慧性,由此实现对世界的改造;可以想象的是,人工智能在拥有人类智慧后,将不断替换人类社会中原本由人类控制的“岗位”,成为人类“饭碗”的最有力竞争者。可以毫不夸张地说,人类社会的范围与深度完全取决于智慧的推动,甚至可以说当下社会的范围就是人类的智慧能力所到达的范围。在人工智能时代,只要有人之处就有人工智能出现的可能性,并最终抵达和覆盖人类智慧所涉及的社会边界。随之而来的是,人工智能的替换将使大量人类主体从当前的社会互动关系中解脱出来,也必将改变人类在社会中的参与和控制能力。而一旦由非人的类人智慧“接管”诸多社会领域,社会的发展走向便不再会如人类所设计和规划一般,乃至于将发生人类无法预测的改变。

场域理论可以为当下看似混乱的人工智能参与社会生活时混乱的局面提供梳理和分类的方法。法国社会学家皮埃尔·布迪厄提出了场域理论(Field Theory),“一个场域(Field)可以被定义为在各种客观位置之间存在的客观关系的一个网络,或一个构型。”[注] [法]皮埃尔·布迪厄,[美]华康德:《反思社会学导引》,李猛、李康译,北京:商务印书馆,2015年版,第122页。 场域的概念形象地概括了现代社会的特征,现代高度分化的社会正是由大量具有相对自主性的社会小世界构成,这些社会小世界都是具有自身逻辑的客观关系的空间,即场域[注] 瞿琨:《场域理论与马克思主义法学理论的发展——以法官审判行为为例的场域分析》,《上海交通大学学报(哲学社会科学版)》,2007年第5期。 。我们可以回归到法律规范的基本逻辑,即作为法律主体的人在法律中如何受到规范和约束。连续完成一个又一个既具有社会意义也具有个人意义的行为,是人的智慧的完整表现。也正因为人能够完成一个又一个的行为场景,从而共同塑造了法律意义上拥有主体地位的人。如果我们将人的全部活动进行微分,便可以得到数量众多的由简单、独立的行为所构成的场域。反过来说,构成这样的场域,仅需要简单的行为存在,并不存在也不需要存在法律意义上完整的人的主体。因为完成某一场域中的行为时并不需要连续的其他场域的配合,也即不需要人的其他行为和能力。例如在日常简单交易活动的场域中行为的发生不完全需要主体地位,只需要少量且一定的行为和能力,其它的诸如身份、工作、婚姻等等因素在这一场域中在所不问。从微观视角下,人的主体只是一个又一个场域的集合,这些独立存在的场域并不受制于人类主体地位而存在。

如果将同一场域中的人类替换为人工智能,并依凭其机器的智慧完成相同的行为,意味着在这样的场域下人工智能做到了建立在同等互换基础上与人类的“相同”。将场域中的其中一人替换成能够完成被替换者当前全部行为的人工智能,场域中的所有行为依旧可以连续完成,此时无论认为人工智能是以什么法律身份出现,实际效果并不会发生改变。例如新华社于2019年3月3日发布的全球首个AI合成女主播,开发方以新华社主播屈萌为原型,模仿她的言谈举止,几乎可以做到以假乱真[注] 环球网:《中国首个AI合成女主播上岗 外媒:几乎可以假乱真》,http://tech.huanqiu.com/it/2019-03/14462325.html?agt=61,访问日期:2019年4月30日。 。单从媒体播报的场域看,AI女主播与实际的新华社主播屈萌并无差别,如果不事先告知,观众会误以为是人类主播。在特定的场域内,人工智能不需要取得完整的法律主体地位,即可以像人类一样在这样的场域内,以他人所共识的人类的行为参与社会活动。由是,在这样的场域下,人是可以在不考虑主体地位存在与否而被人工智能所替换的,在这些场域中,人工智能是“人”。除此之外,在人工智能不表现出类人化的智慧和自由意志时,也即无法替换人类行为中任何一个场域中的人类时,才会被习惯性地视作普通的机械来对待,在这些场域中,人工智能是“物”。

人工智能在单一场域中只能表现出一种性质和状态,即在某一场域中要么作为“人”而出现,要么作为“物”而出现,除此之外没有其他情况。因此,法律对单一场域的规范是十分清晰的。而从场域的定义和性质来看,不同场域之间作为独立的存在并不相互冲突和交叉,因此可以采用所有场域单纯数量相加的方式,使人工智能涉及到的社会领域的方方面面并行不悖地归入同一个法律体系中,使人工智能完全、有序、合理地受到法律规范的约束。因此,可以放下传统法律观念中“非人即物”的单一、连续、互斥的身份赋予的观念,而是用分解与场域的观念对待人工智能,使之受到法律规范的合理约束。

(二)不同场域中人工智能性质的判定

协议规定当终端从覆盖等级0接入时,如果连续尝试次数达到最大尝试次数时就会尝试从更高一级覆盖等级接入。测试数据分析,终端初始从覆盖等级0接入(LL1_RACH_SELECTED_BY_MEASUREMENT),失败后尝试从覆盖等级1/2接入(LL1_RACH_ECL_SELECTED_NEXT_COVERAGE_LEVEL)

将人工智能进行简单的划分,可以使主体地位不清、权利义务相对关系脱离同一主体等问题得到解决,但这样的划分伴随着人工智能的发展难免遇到许多困难,甚至出现更为复杂的问题。并且,推行这一“特殊性”的法律规范道路也必然要求重新建立一套专属于人工智能的理论和法律适用体系。在人工智能技术的应用井喷和参与纷繁复杂的社会关系的今天,人工智能的“特殊性”法律规范路径也将会面临诸多问题。

在静态情况下,以人工智能的智力程度、行为能力、承担义务的能力为标准,并以正常人类为参照,将每个人工智能的能力范围分为“应用了智能能力”“未应用智力能力”两个范围,主要区别和体现人工智能设计之初的智能领域;在动态情况下,以人工智能智能运用与否为标准,可以分为“处于智能能力对应的场域”和“脱离智能能力对应的场域”两种时间段。因此形成了一个横纵坐标轴,横向为人工智能的智能化状态与否的不同时间段,纵向为人工智能应用范围是否符合其智能化能力的领域。在实践中,人工智能所应用的领域和时间总会处于交叉状态,每个交叉点则可以代表一定实践和状态下人工智能如何参与人类社会。

2.非智能化状态。在这一场域下,人工智能由于智能化的能力的不足或不适用而无法应对,并导致不能表现出人的行为特征,其应当被视为物。此时的人工智能并没有独立的意志,无法自主决定自己的行为,也无法依据类人化的智慧对外部的刺激做出反应,与普通的机器无异。例如,在人工智能关机或脱离设计的智能化应用工作时,发生了对人工智能的盗窃或损毁,事件应当被定性为“盗窃和破坏财物”,而非“拐卖和故意伤害”。又例如人工智能驾驶系统在开启时,要求其进行智能能力以外的活动而发生的侵权事件。人工智能在智能化能力以外的活动中由于并不具有智能而无法视为人,因此不能成为侵权主体。事实上,长期以来人类社会对智慧的普遍性和全面性的印象和观念往往使人们出于主观而造成一种假性认识,即人工智能在部分场域中表现出了智能化的状态时,自动推定人工智能在其余人类所涉及的领域均能表现出同样的智能。这样的认识很大程度上模糊了人工智能的非智能化场域。我们需要了解的是:当前没有人工智能可以做到这一点,而且事实上人工智能所能完成的智能化行为和领域是极其有限的。例如人工智能“AlphaGo”是以“第一个击败人类职业围棋选手、第一个战胜围棋世界冠军的人工智能机器人”被人们所熟知[注] 张盖伦:《2017年人工智能带火了哪些词》,http://sc.people.com.cn/GB/n2/2018/0108/c345529-31115278.html,访问日期:2019年4月30日。 。但在其他领域则是难以进行智能化活动或者根本不能,至少当前的“AlphaGo”不能从事智能驾驶。因此,在这样的场域下人工智能实质上是物品,可以作为财产、工具等等“物”的身份受到法律的规范。

鉴于胶质瘤级别进展过程中伴随着 BICD1 表达水平的增高,BICD1 可能作为胶质瘤级别进展的分子标志物。虽然本研究提出的假说有待进一步研究和验证,但是确认 BICD1 作为胶质瘤级别进展标志物的潜在作用对预测低级别胶质瘤患者的恶性进展时间和总生存期,以及及时进行治疗方案的决策具有重要的临床意义。

图一 人工智能在不同场域中的性质

因此,人工智能参与人类社会活动时不同场域中的性质可以分为上述四种情况,这四种情况又可以合并为“智能化”与“非智能化”两类。而这也确定了不同场域下人工智能的性质和接受法律规范的身份,为下一步的法律规范提供了基础。

(三)人工智能法律规范“特殊性”进路的基本形式的分化

承接不同场域中对人工智能性质和身份的判定的思路,下一步便是将人工智能分别以智能化(人)和非智能化(物)两种身份进行法律规范。人工智能可以在智能化场域下以自身智慧的能力完成一定的人类行为而被视为人并进行法律约束,除此之外的非智能化场域中人工智能由于没有智能化的能力而以物的身份接受法律约束。当下,人工智能对法律规范挑战与冲击多表现在民事主体、作品的著作权、致人损害的侵权法、人类隐私保护的人格法、智能驾驶系统的交通法和人工智能劳动法等领域[注] 吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学(西北政法大学学报)》,2017年第5期。 。以此,可以通过“特殊性”进路实现对这些问题中基本和简单场域下人工智能的有效法律规范。

1.智能化场域。人工智能在智能化场域下运用其类人化的智力能力进行活动时是可以被视为人的,这也是当下人工智能产业发展中所设计的主要应用情况。在其所涉及的场域下可以被视为完全自主的个人,应当享有对应的人类所拥有的权利和义务。在人格主体问题上,此时的人工智能是法律意义上的人。例如未来可能出现的人工智能警察在执法活动中应当被视为完全的人,不仅拥有执法权,其“人身安全”也应当受到保护。如果受到袭击,事件的定性应当是“对警员的故意伤害”而非“破坏警用器械”。同理,在人工智能驾驶系统的交通法问题上,人工智能驾驶车辆上路行驶时,其身份也应当被视为与人类驾驶员无异的驾驶员,不仅需要通过与人类相同的驾驶能力测试而取得“驾驶证”,并且拥有相关的权利以及遵守交通规则的义务。在这样的场域下,人工智能可以凭借其自身的智能性替换只有人类才能完成的行为,并因此而成为当前场域下的“人”。

有些系列谜语,由于开头一条的谜底是已经基本消失了的劳动工具或劳动现象,令人难以猜出,导致后面的几个谜语都不好展开猜下去:

公司主导完善评价体系、拓展发展通道,加大基层站区长对职工评价的话语权、思想政治工作主动权;公司主导搭建关爱平台、建设站区文化,提升基层站区长关爱职工的亲和力、思想政治工作感染力。

经过这样的特殊化处理,使得传统意义上的人工智能“人与物”之争可以得到化解,并且根据场域的不同以不同的身份参与法律的规范。

(四)人工智能法律规范“特殊性”进路的联动形式的分野

人工智能在实际应用和法律规范的情形是极为复杂的,往往出现人工智能在性质不同的两个或多个场域下需要相互的交叉配合才能够实现的状况。这便引发了“人工智能智能化引发的非智能化处理”和“人工智能物化状态引发的智能化身份处理”的两种情况。而这也是使人工智能在不同的场域下实现联动的要求,从而使得人工智能在被场域化后能够将所有场域串联并完整地受到法律规范的约束。

在场域化划分的前提下,需要有完整的标准来判定人工智能在不同场域中的性质。人工智能在被分为诸多的场域中的性质决定了当下场域中人工智能该以何种身份适用法律规范。下一步便是需要确定实用性的标准以判定在不同场域中人工智能可否被视作“人”或“物”,而判断的核心便是人工智能智能化能力和行为是否表现。可以通过结合人工智能设计和实现的智能化的能力范围(静态情况)和人工智能处于智能化运行的时间(动态情况),同步衡量人工智能的状态并得出不同场域下人工智能的性质。

例如,针对于小学生这一群体来说,其对于流行音乐是非常追捧的。因此,音乐教师在培养学生节奏感的过程中,也可以投其所好,引入一些节奏感较强的音乐,来达到培养学生节奏感的目的,使培养目标得以达成。比如,教师可以引入周杰伦的《双截棍》,不仅为学生播放相应的音乐,也为学生播放相应的歌曲视频等,充分的增强课堂的感染力,使学生更好的感知音乐节奏,这对于学生本身节奏感的提升将有着非常重大的作用。

1.人工智能智能化引发的非智能化处理。人工智能在智能化的场域的“行为”导致了其他场域的联动,而如果在被联动的场域中人类可以依凭智慧和能力进行一些行为但人工智能无法实现时,便需要人工智能以非智能化的身份来配合在前一领域中的活动而接受法律规范。例如人工智能在智能化场域中侵权行为的责任承担问题。由于人工智能驾驶系统在运行之外的场域下并不像人一样在发生侵权行为的同时具有承担后果的主体地位,如果仅仅是以传统法律规范下进行责任划分,将不可避免地出现因为人工智能的能力不足导致的履行不能。例如人工智能驾驶汽车发生交通事故后,人类驾驶员可以进行赔偿、受到相关法律的处罚等等,而当前的无人驾驶人工智能显然无法做到这些。但是,人工智能对责任的“承担”可以由物的身份进行。例如可以将人工智能由开发者进行回收并支付费用,以对受侵害人进行补偿。或者在其发生侵权后终止其智能化状态并将设备摧毁,而这可以被理解为《刑法》意义上的刑罚等等。

2.人工智能物化状态引发的智能化身份处理。当前存在一定场域中需要人工智能以智能化的能力参与法律规范时,人工智能由于处在物化的状态而无法实现,此时便需要其它智能化场域的结合。例如人工智能劳动权益保障的问题。人工智能在劳动中充分表现着人类的智能,但因为其并不具有法律意义上的人格主体而同时无法获得相应的保障。但拥有一定人类智慧的人工智能并非是人类的“电子奴隶”,人类无法放任人工智能遭到滥用,就如人类无法容忍奴隶制一般。因此,可以将人工智能在物的场域中无法获得的“保障”转化为人工智能智能化场域中的条件。不妨将人工智能的维护升级对应人类的休息权、人工智能的工具和装备配置对应人类的受保护的权利等等。如此一来,无论场域中人工智能属于何种性质,以及人工智能性质不同的场域相互关系如何,都可以通过基本和联动的形式受到法律规范的约束。

制冷循环可分为以下四个过程(1)绝热压缩过程:碳氢冷媒在压缩机中从低温低压的饱和蒸汽状态提升到高温高压的过热蒸汽状态;(2)等压放热过程:高温高压过热蒸汽进入冷凝器将能量以对流的方式传递给空气媒介,使碳氢冷媒等压放热至饱和状态或过冷的高压常温饱和液态冷媒;(3)等焓绝热膨胀过程:常温高压冷媒经节流结构后压力迅速降低,少量液态冷媒因压力骤降而闪蒸为气态,最后冷媒以气液两相离开节流机构;(4)等压吸热过程:低温低压碳氢冷媒进入蒸发器时,利用冷媒相变过程高潜热值特性吸收蒸发器外介质热量,实现冷却的效果。

三、人工智能法律规范“特殊性”进路面临的困境

“⟹”:只需证对任意F∈CIrr(X),若Fδ∩U≠Ø,F∩U≠Ø即可。由F⊆clF,Fδ⊆(clF)δ,于是(clF)δ∩U≠Ø,注意到clF为可数既约闭集,从而clF∩U≠Ø,显然F∩U≠Ø。

首先,人工智能智能化表现的认定面临困难。贯穿于整个人工智能法律规范问题的核心便是:人工智能如何才可以被认为拥有人类的智慧。这一问题的本质是“IA”与“AI”的区别,是工具和意志的区别[注] 马长山认为,IA不是AI。人工智能AI(Artificial Intelligence)是指通过模拟人脑思维,由机器或软件所表现出来的具有推理、记忆、理解、学习和计划的类人化智能,它能够思考自己的目标并进行适时调整,甚至将拥有足以匹敌人类的智慧和自我意识的能力。而IA(Intelligence Augmentation)则是一种智能增强,尽管它也会有自主学习、自然进化等功能,但仍是按照人类输入的代码指令和数据算法,来复制、模仿、模拟人类的行动,以帮助人类挖掘和拓展自身潜能。参见马长山:《人工智能的社会风险及其法律规制》,《法律科学(西北政法大学学报)》,2018年第6期。 。从目前来看这一问题仍处在较为复杂的争议当中。“当前脑科学、认知科学已大幅进步,但对人脑产生情感意识的功能机理、脑神经网络结构仍缺乏深入了解,尚未全面掌握人脑智能机制,以至于人们对人类智能理解不一,导致人工智能模仿人类智能的进路分化,产生了不同的人工智能实现模式,如符号主义、联结主义、行为主义、机制主义。”[注] 郭少飞:《“电子人”法律主体论》,《东方法学》,2018年第3期。 我们尚无法从内部机制认识人工智能的智能化程度,即使人工智能做出了类似于人的行为和表现,我们也无法得知其是否具有“思想”。人工智能的智慧性目前来看仍是“黑箱”式的问题,当前的技术条件使我们无法得知人工智能是否以及何时真正运用了人类的智慧。

即便如此,法律规范的施行中并不需求对其内在思想的准确认知,而是对其行为的约束。人工智能始终存在于人类社会当中,必然发生与人类的交互,而这也意味着人工智能行为的必然性和表现的人类化。以人为设计模板的人工智能无论是否真的拥有人类的智慧,其实施只有人类才能做出和完成的行为,这就意味着法律规范约束的可能性。因此在“特殊性”的法律规范进路中,衡量人工智能智能化的标准并非是其内部的逻辑原理或算法,而是其是否具有人类的行为表现。人工智能只要在一定的场域中表现出了人的行为,便可以作为人的角色而被看待,而其是否真的具有人类的思想和意志可以在所不问。由此,虽然回避了对于人工智能“是否具有人的思想”这一问题的回答,但并不影响对其具体的法律规范。

其次是复杂人工智能的法律规范面临困境。从目前来看,人工智能的智能化能力是极为有限的,所能完成的行为仅限于所涉及的较为基础和单一的领域。可以说,现有的人工智能的能力都是专职的和固定的,即使人工智能拥有较强的学习能力,但在当下技术条件的限制下只能增强其特定领域和行为的智能化能力,仍不能打破行为和领域的壁垒。例如,谷歌旗下的“AlphaGo”系列人工智能表现出极强的学习能力,其中“AlphaGo Zero”从零开始学习,仅用了三天便击败了曾经击败柯洁的“AlphaGo”版本,被称为“三天走过人类千年棋史”[注] 虞涵棋,王心馨:《阿尔法狗之父揭秘最强“狗”如何炼成:3天走完人类千年棋史》,https://www.thepaper.cn/newsDetail_forward_1829941,访问日期:2019年4月30日。 。尽管如此,这一系列的人工智能仅仅能够完成弈棋这一种行为,因此场域的划分和法律规范仍是十分简单的。又例如无人驾驶人工智能,不同学习能力的人工智能使得他们各自的智能能力和“车技”有高有低,但是这并不妨碍所有这些人工智能在法律视角下相同且唯一的“驾驶员”身份。当前状态下人工智能个体和行为的边界仍是较为清晰的,对其实现场域的划分和法律的规范也并非难事。

然而,人工智能的智能能力正在以指数的形式高速增长已经成为未来趋势。有学者认为未来的强人工智能进化将是爆炸性的,“迅速的智能大爆发往往发生在非常短的时间内,比如几分钟、几小时或者几天,人工智能将很快超越人类智能”[注] 国章成:《人工智能可能带来的五个奇点》,《理论视野》,2018年第6期。 。在这样的发展趋势下,我们不能保证未来的人工智能仍以当下诸多领域的“专职机器人”的形态出现。谷歌旗下人工智能公司DeepMind开发的一款人工智能已经完成了一系列不同的任务,且表现的几乎像人类一样出色。更为重要和独特的是,这个人工智能程序不会忘记先前解决问题的方法,能够使用学习到的知识解决新问题[注] 明轩:《DeepMind又搞了个大事情!让人工智能像人一样学习》,http://tech.qq.com/a/20170315/020273.htm,访问日期:2019年4月30日。 。而这也意味着未来的人工智能能够完成甚至是同时完成多种工作。未来的人工智能在智力能力达到一定程度后不排除会以集成的形式而非独立个体表现出来,核心程序存在于“云端”的数据库当中,并且在同一时间内控制数量众多的拥有独立个体形象的人工智能。因此,会存在数量非常众多的不同场域中能够完成各种各样复杂工作的人工智能的“本体”却只是数量唯一的一个作为“人”而出现的思维系统。此时不同场域中的人工智能所扮演的角色并非其“本体”,由此根据“特殊性”的法律规范进路而进行的场域定性和责任划分均都难以实现我们所期望的目的。在这样的情况下,对其场域的划分和不同场域下性质的判定也将是复杂的一件事,不仅需要法律规范的技术,同时还要结合人工智能产业领域的相关技术才能进行。

再次,人工智能的规制如何与传统法律体系对接面临困境。人工智能法律规范“特殊性”进路需要将人工智能法律规范整个理论体系都重新创设于现有的法律体系之外。这样的进路并不影响已有法律体系的结构和内容,而是将人工智能在法律体系之外合理“加工”后分别放置入法律规范中,是“从外向内”的一个过程。因此,必须考虑的问题便是这样的理论如何与现有的法律体系进行对接。

从立法上来看,需要订立《人工智能法》。由于人工智能所拥有的人类智慧性以及随之而来的对于人类社会各领域广泛的渗透,如果试图修改当前法律以实现对人工智能的规范,不仅会陷于“人工智能主体地位有无”的泥潭当中,而且所修改的范围必将是广泛的和彻底的。相比之下,需要有一部专门的《人工智能法》,对人工智能的法律规范原理进行一般的、抽象的解释,并最终回归于现有的法律体系当中。

从司法上来看,需要法官提升素养和能力。在目前的人工智能案件中,由于人工智能相比于传统案件不同的模式、缺乏有效的法律文本、没有值得参考和借鉴的先例等因素,对法官的素养和能力提出了极高的要求。而当前对人工智能的规范需要“特殊性”进路时,同样也需要法官在审理案件时拥有“特殊性”的思维。例如人工智能自身的智能化能力、在不同场域中的具体性质、是否以及如何发生场域联动等等主观抽象问题需要法官不断运用理性,综合研判。

从发展上来看,需要不断对接人工智能技术发展前沿。人工智能技术作为富有活力的“朝阳产业”,不仅成果日新月异,而且其发展领域也在不断变化和扩张。人工智能的未来不确定性和易变性对法律规范提出了更为严格的要求。由于人工智能的变化速度远高于现有的各个领域和部门,因此对其法律规范则不能以当前的速度发展,而是应当快于当前,否则将难以为人工智能的发展提供有效的法律规范和保护,众多的问题也将不断涌现。而这就需要人工智能法律规范更加贴近于研究前沿,同步甚至早于人工智能技术的发展改变而做出改变。

最后,如何确定具有超场域性的人工智能基本权利面临困境。人生而具有天赋的基本权利,而人工智能的“天赋人权”是否可以因其智慧性而被推定?斯多葛学派认为,人人都是上帝的儿子,因而彼此之间都是兄弟。人有共同的人性,它同自然规律是基本一致的。上帝有理性,因而人也具有理性,理性也就是自然法则[注] 李步云:《论人权的本原》,《政法论坛(中国政法大学学报)》,2004年第2期。 。这是西方早期对于天赋人权的学说,认为取得人类身份的核心指标是“人性”和“理性”。而在人工智能时代的今天,我们不禁反思:人工智能是否具有部分的“人性”和“理性”而可以被视作天赋人权的对象之一?当前的人工智能仍处于起步阶段,其智能化程度较低,大多数人工智能尚不拥有独立思考的能力,也并不具有情感。因此,人工智能仍停留在机器和软件的形象之中,从任何角度都难以将其与人类划等号。但是,由于人工智能技术的特性,虽然当下人工智能技术仍较为粗糙,但已经打破了人类躯体对智慧的封锁而发生了质的变化。按照这一趋势继续发展,很难预料未来人工智能是否会拥有等同于人类的思想、理性、情感甚至与人类的思想完全相同。这时的人工智能,又是否拥有天赋的“人权”呢?此前由于人类对思想和理性的独占性,人类与思想是可以划等号的,因此对当下所出现的人工智能是传统天赋人权思想鲜有考虑。这也成为了一个前所未有的问题,人工智能是否具有以及如何具有天赋的“人权”。在动物也具有一定基本权利的今天,能以人类方式思考并深度融入人类社会的人工智能是否能够拥有基本的生存和发展权,甚至被接纳于“天赋人权”的范围内,亦或是依旧被当做机器一般受人驱使和丢弃,这是一个值得讨论的问题。

烘烤成本,尽管生物质能烤房供热设备在燃料的用量和耗电量均高于CK,但由于近年来研究区域的燃煤价格上涨,常规燃煤的烘烤成本增加,加之生物质能烤房供热设备操作和加料均较为便捷,用工量减少,降低了烟叶烘烤的成本,生物质能烘烤较常规燃煤成本降低0.1元/kg左右,这与韦忠[5]等的研究结果相近。但就不同的生物质能设备而言,不同的设备,由于综合热效率和能耗不同,导致烟叶烟烘烤成本也不相同。表明,不同类型的生物质燃烧机烘烤的能效、成本存在差异。

四、“去特殊性”:未来人工智能法律规制的新路径

“现在硅谷到处都有人在讲‘奇点’(The Singularity),该理论认为,我们即将迎来机器时代:机器的智能程度远远超过人类,以至于人类既无法控制机器,也无法理解它们的想法。换句话说,未来可能会有机器比我们人类更加聪明,甚至聪明到我们都没有办法控制的地步。”[注] 皮埃罗·斯加鲁菲著,王艺璇译:《离人工智能奇点还有多远》,《中国经济报告》,2017年第5期。 目前我们尚不得知“奇点”是否存在以及何时到来,但可以确定的是,人工智能的发展方向是不断具有更加全面的人的能力和行为,并在各个方面趋近、成为甚至超越人类。而一旦人工智能已经具有等同甚至高于人类的智能,可以完全如人类个体一般参与社会生活时,便能够独立以人类的身份参与法律规范。人工智能法律规范的整体趋势也应当是以特殊的方法对当下弱人工智能的特殊化规范逐步过渡到以强人工智能为主的规范模式。“特殊性”的法律规范也将伴随这一进程而逐渐收缩而完成使命,与之相对应的“去特殊性”的法律规范路径将会在未来成为主流。最终,在“去特殊性”的法律规范路径中,原本需要进行场域化分、性质判定和分别规范的人工智能将不断在更多的领域和所扮演的角色中独立和完整地参与法律规范,并生动地融入于人类社会和生活当中,成为人类社会中的新成员。

首先,人工智能的未来发展趋势为“去特殊化”法律规范奠定了现实基础。如果说“特殊化”路径是对应当下人工智能的能力有限、孤立且分散的现状,那么“去特殊化”路径就是在这一基础上伴随人工智能能力的提升而进行整合的过程。因此,“去特殊化”路径发生的根本动力在于配合人工智能未来能力的发展模式和方向。首先,未来人工智能领域具有同步性和聚集性,这为采用一元的理论对其进行规制奠定了基础。人工智能作为新兴计算机领域的产物,其相当高的新陈代谢率和对于前沿技术的追寻性意味着内部群体现象的出现。一旦某一人工智能的某一项前沿技术取得质的突破,便会迅速普及于整个人工智能行业,并迅速装备于大多数的人工智能。因此,一定时期内人工智能群体的整体水平将会是同一层次的,不会出现明显的代际差别。这一发展模式可以类比当下智能手机的发展态势,两者同样具有高新陈代谢率和对前沿技术的追寻性。一定时间内,人工智能群体内部的核心构成差异难以有质的差别,而这也为对人工智能的规范适用一元的理论创造了条件,不至于因为内部的分化过大而无法进行宏观整体的规范。其次,人工智能的智能程度的提升也指明了人工智能参与人类社会的未来走向。虽然诸如“阿尔法狗”等当下人工智能的发展换代表现为对单一行为和领域的“精通”,但这并不是永远的态势和人工智能发展的目标。伴随着智能化程度的提高,以人类为设计蓝本的人工智能将会不断趋近于人,也将不断融入人类社会。对当前人工智能涉及所有社会领域的拆解和微分的“特殊性”规范路径,可以在一定程度上将当下智能化程度相对较低、完成的行为有限的人工智能纳入到当前的法律逻辑和法律体系当中,但这样的方法却难以应对未来人工智能的智能化水平大幅提升的趋势。伴随着人工智能智能化程度提高的进程,需要“化特殊为一般”,对智能化达到一定程度的人工智能适用“去特殊性”的法律规范进路,使对人工智能的法律规范逐渐向对人的法律规范的方向靠拢。因此,人工智能的未来发展趋势奠定了人工智能法律规范的未来走向:在配合人工智能的智能化程度提升过程中,将当下特殊性法律规范中的人工智能在其能够以独立的能力完整参与的领域中恢复一般法律规范对其的作用,并最终使人工智能能够像人类一般接受法律规范。

其次,“去特殊化”既是“特殊化”路径的相反与终结,也是人工智能法律规范的新模式。“去特殊化”与“特殊化”进路的基本理念相反,从“拆分、定性和规范”演化为“单一身份独立接受规范”。根据特殊性法律规范进路,人工智能所参与的场域并不是孤立的,而是统一和集合于人工智能本身,区别仅仅是在于人工智能在这些场域中的性质。在一个人工智能所参与的所有领域中,有些是作为“人”而参与,但更多是作为“物”而受到支配。伴随着人工智能智能化能力的提高,人工智能不断在原本作为“物”的场域中拥有进行人类行为的智能和能力而转化为“人”。人工智能的智能化能力的提升意味着所参与的社会领域中作为“人”的比例的提升,更多的场域中人工智能可以作为“人”而出现。伴随这样的趋势,将人工智能能够独立以自身智能化的能力参与的众多场域联合成为更大的场域,并将诸多的场域合并为一个社会角色下的不同行为领域,进而逐渐将不同的行为领域叠加积累形成独立的一个社会角色,从而形成人工智能可以独立享受权利和承担义务的一些社会角色。随着这些社会角色的扩大,人工智能也将越来越能够像人一般进行活动,并最终以法律上等同于“人”的身份回归于人类的法律体系当中。例如对于日渐普遍的新闻写稿人工智能,其最为趋近的社会角色便是记者。显然,当下诸多作为以写稿为设计目的的人工智能,是无法独立完成其他行为的,甚至根本就没有法律意义上关于记者的权利和义务的概念与意识。即使法律赋予其权利,人工智能也无法享有。然而,随着人工智能智能化的提升,一台人工智能设备并不仅仅能够完成单一的写稿工作,同样也可以完成与之对应的相关行为。从场域的角度来看,行为层面的场域可以逐渐通过聚合而上升至社会角色层面。当一个新闻写稿人工智能不仅仅能够完成写作,同时也能够完成出版、写作学习、新闻调查、数据分析、参与法律事务等等一个记者所必需的全部行为和技能后,也即其围绕“新闻写稿”所参与的全部的场域中均是以“人”出现时,这些所有的场域都可以整合为“记者”这一社会角色场域,人工智能获得了“记者”这一社会角色。他可以像一个人类记者一样写出稿件并对此负责,以自己的名义享受权利并承担义务。此时,在这一角色下的诸多场域便可以不再运用“特殊化”的“拆分、判定和分别规范”的规范方法,而是运用常规的相关人类记者的法律规范。进而言之,伴随着人工智能的智能化程度不断提升,以单一领域为设计目的的人工智能(如单纯的新闻写稿人工智能)能够以这一社会角色完全融入人类法律体系之中。而综合型的人工智能,也即能够完成多个社会角色的行为的人工智能,则在其智能程度可以使所有角色都独立参与社会活动后,可以以多个社会角色完全融入当下的法律体系。最后,类人甚至超人的人工智能则是“去特殊化”路径的最高形式。当人工智能可以完全像人类一样参与所有的社会领域时,在法律的视角下,此时的人工智能与人类无异,因此可以完全适用人类的法律。而这也意味着“特殊化”进路的完全终结,也是“去特殊化”路径的最高阶段。

最后,人工智能在“去特殊化”路径下可以和谐、有机且生动融入人类社会。当下人类对于人工智能的主体印象多是“聪明的机器”,对于其能完成的智能行为往往是感到新奇,并不会因此而将其纳入人类的日常生活中。但未来的人工智能发展前景十分广阔,正如一些科幻电影中所讲,未来的人工智能甚至与人类同吃同住、和人类成为伙伴、甚至与人类结为婚姻。这样的设想是美好的,这些想象中的人工智能可以生动融入人类社会之中。但是,这样的前景并非是可以自然而然、水到渠成的。人工智能的未来定位尚不明确。如果没有很好地处理人工智能的定位、寻找人工智能参与人类社会的良好路径,那么人工智能这一强大的实体存在则很有可能“天使变魔鬼”,成为人类的敌人甚至是终结者。而这也正是当下普遍存在的对于人工智能极大恐惧的根源。对于这一问题,我们需要明白的是,人工智能仅仅是作为一项技术,其自身并不造成伤害,而根本问题在于人类社会如何接纳人工智能,如何使人工智能和谐、有机且生动地融入人类社会。“去特殊性”的法律规范道路或许可以提供一些思路。“人工智能以人类智能为标尺,由人类构造的机器、系统或其组合表现人类智能部分或全部特点与功能。”[注] 郭少飞:《“电子人”法律主体论》,《东方法学》,2018年第3期。 人工智能在当下以及以后的一段时间内都将是越来越像人类,而这也必然会引发人工智能与人类交往以及交往中所形成的关系,其所具有的地位和扮演的角色也应当是从当下场域化中“部分的人”发展为“完全的人”。西班牙的发明家Sergi Santos试图制造出性爱机器人,并认为这些性爱机器人不会被人们藏在衣橱里或床底下,而是会光明正大的像伴侣一样出现在室外,甚至会有人深情的对“她”说“我爱你”[注] 腾讯科技:《性爱机器人制造者:20年内会与人类结婚甚至还能生孩子》,http://tech.qq.com/a/20171031/013591.htm,访问日期:2019年4月30日。 。而此时的人工智能应当被如何对待,是机器、是人,亦或两者均不是?事实上,当人工智能的智能化程度达到足以像人一般完成日常生活的行为,并且实际参与了人类的日常生活中,人工智能就应当被视为人。此时的人工智能应当在社会中享有和人类一般的地位和待遇,并且不受歧视和排挤,应当允许人工智能根据自己的意志做出选择,并且其选择受到尊重。“智能机器人本质是机器,但亦有人的属性,对智能机器人的尊重就是对人类自身的尊重。”[注] 吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学(西北政法大学学报)》,2017年第5期。 虽然当下已经有很多人意识到这一问题并试图接纳人工智能进入人类社会,但对于广大的社会群体和社会成员来说,这一过程并不是一蹴而就的。伴随着人工智能技术的发展,在制度层面需要实现过渡的方法。而“去特殊性”的法律规范路径则为此提供了方案。一方面,随着人工智能能力的提升而不断扩大其法律地位,可以与人们的社会实践中所感受到的人工智能参与人类社会的改变同步,从而减少发展的质疑和阻力。另一方面,通过法律的强制性,可以对已经革新的适合当时人工智能与人关系的社会理念进行保护和巩固,防止社会观念的倒退。由此,通过制度的约束和规范,为人工智能领域以及人类社会的发展更新提供保护和调节,及时调解释放社会矛盾,从而避免“人工智能终结人类”的恐惧甚至是真正发生的灾难,最终实现人工智能和谐、有机且生动融入人类社会。

总而言之,伴随着人工智能智能化程度的提高,以往许多只能作为物出现的场域中,人工智能也可以通过智能的能力进行参与,并且这些场域可以与原有的智能化领域形成配对,形成完整的一对权利与义务关系。此时的人工智能可以在这样的一对场域中以完整的人的身份参与其中,这样的领域也就不必进行特殊化的法律规范,而是可以适用常规的法律规范。2016年,欧盟委员会法律事务委员会向欧盟委员会提交动议,要求将最先进的自动化机器人的身份定位为“电子人”,除赋予其“特定的权利和义务”外,还建议为智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号[注] 吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学(西北政法大学学报)》,2017年第5期。 。而这也正是当前的法律规范在特定的领域中使人工智能能够独立享受权利、承担义务并赋予人的对待的表现。去特殊性法律规范进程的核心就在于人工智能化程度的提高,这使得其能够在更多的领域中恢复权利和义务的一体化,即能够以独立的身份完整承担义务和享受权利,从而成为此领域下法律视角中完整的人,并最终很好地融入人类社会。

五、结语:人工智能时代的法学命题

人工智能的出现是传统法学理论所从未预料到的,人工智能以机器的状态实现着人类的部分行为,从而使得封闭的、单一的人类或由人类参与的法律主体发生松动,使在这一基础上建立起来的法律秩序在规范人工智能时显得异常艰难。单从主体地位这一问题来看,各界的讨论十分激烈但并未有结论。“目前的研究,无论支持方还是反对方都缺乏相应的理论基础和逻辑论证。支持方没有具体论证赋予人工智能主体地位的理由,反对方也如是。”[注] 刘洪华:《论人工智能的法律地位》,《政治与法律》,2019年第1期。 而出现这一问题的根本原因在于时代性的变革对法律传统理论的冲击,使得人工智能这一实际存在的产物在当前法律体系中无法寻找到合适的位置。“现代的社会人文价值和伦理准则建立于启蒙时代,显然已经不能适应未来崭新的科技社会。”[注] 陈吉栋:《论机器人的法律人格——基于法释义学的讨论》,《上海大学学报(社会科学版)》,2018年第3期。 因此,必须做出一些特殊性的改变,以规范当下人工智能发展的大潮并应对随之而来的大量问题。以特殊化的法律规范进路以及去特殊性的法律规范进路最终实现人工智能对现有法律体系的融入,是可以被尝试和探索的一条道路。时代进步和创新意味着法律必须做出改变,甚至是放弃原有的思路,以实现对新兴事物有效的法律规范。而在人工智能时代到来的今天,寻求合理的理论和实践方法对人工智能这一新兴产物实现有效的法律规范是法学需要体现的关键价值,也是人工智能时代的必然命题。

[中图分类号] D926

[文献标识码] A

[文章编号] 1671-3842(2019)04-0029-14

[主持人简介]陈金钊,华东政法大学教授,博士生导师,著名法学家。

[基金项目] 本文系国家社会科学基金项目“司法裁判过程中的人工智能应用研究”(项目编号:18BFX008)阶段性成果。

[作者简介] 彭中礼,中南大学法学院教授,博士生导师,法学博士;刘世杰,中南大学法学院本科生。

[责任编辑:贾 岩 oss_jiay@ujn.edu.cn]

标签:;  ;  ;  ;  

从“特殊性”到“去特殊性”-人工智能法律规制路径审视论文
下载Doc文档

猜你喜欢