自由意志、道德代理与智能代理-兼论人工智能犯罪主体资格之生成论文

自由意志、道德代理与智能代理-兼论人工智能犯罪主体资格之生成论文

自由意志、道德代理与智能代理
——兼论人工智能犯罪主体资格之生成

●彭文华*

【内容摘要】 自由意志和道德理性是获得犯罪主体资格的条件,乃为确立刑法人类中心主义量身定做的。自由意志论属于唯心主义认识论的范畴,是先验而非社会实践的结果。法人意识既不是代理人意识,也不是独立的集体意识。道德代理是法人取得犯罪主体资格的基础。雇主责任原则通过“使法人受益”限定法人的意识和道德理性范畴,赋予法人道德代理资质。智能代理是指具有自主学习能力并能够采取自主行动的智能软件系统。智能代理是人工智能获得犯罪主体资格的条件。神经科学的发展以及人工智能技术的进步,为人工智能实现“小数据、大任务”的表征特征奠定了基础,也使人工智能取得犯罪主体资格成为可能。现在探讨人工智能的犯罪主体资格有其必要性。

【关键词】 人工智能 犯罪主体 自由意志 道德代理 智能代理

一、问题的提出

近两年来,随着人工智能技术的突飞猛进,人工智能的罪与罚成为理论关注的热点。其核心问题自然是人工智能是否具备犯罪主体资格。人工智能只有具备犯罪主体资格,才谈得上罪与罚。当前关于人工智能是否具备犯罪主体资格,存在肯定说与否定说之对立。

肯定说以刘宪权教授为代表。2018年伊始,他在《法学》上发表“论人工智能时代智能机器人的刑事责任能力”一文,指出智能机器人是具有辨认控制能力和学习能力,能够自主思维、自发行动的非生命体,发展到一定阶段的智能机器人可能按照自主的意识和意志实施犯罪行为,完全可能成为行为主体而承担刑事责任。〔1〕 参见刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,《法学》2018年第1期。 此后,刘宪权教授就人工智能的罪与罚发表了一系列论文,对人工智能时代的刑事风险、人工智能犯罪刑法规制的正当性与适当性、机器人行为的道德伦理、人工智能的刑事责任以及刑罚体系的重构等进行了深入探讨。他的人工智能刑法观颠覆了人们对刑事归责主体的惯常认识,对传统刑法理论造成重大挑战,引起理论界广泛热议。不少学者对刘宪权教授的观点深表认同。〔2〕 参见卢勤忠、何鑫:《强人工智能时代的刑事责任与刑罚理论》,《华南师范大学学报》(社会科学版)2018年第6期;江溯:《自动驾驶汽车对法律的挑战》,《中国法律评论》2018年第2期;马治国、田小楚:《论人工智能体刑法适用之可能性》,《华中科技大学学报》(社会科学版)2018年第2期;王肃之:《人工智能犯罪的理论与立法问题初探》,《大连理工大学学报》(社会科学版)2018年第4期,等等。

当然,也有许多学者反对人工智能犯罪。他们认为,人工智能不具有犯罪主体资格,不能成为犯罪主体。〔3〕 参见时方:《人工智能刑事主体地位之否定》,《法律科学》2018年第6期。 一方面,人工智能不具备独立于人类的权利和价值,在善恶观和伦理观上不具备与人类相当的认知水平,将人工智能拟制为犯罪主体的设想不具有合理性,将加剧“有组织的不负责任”。〔4〕 参见叶良芳、马路瑶:《风险社会视阈下人工智能犯罪的刑法应对》,《浙江学刊》2018年第6期。 另一方面,实践中人工智能体的法律人格内涵无法真正落实,也无法证明人工智能体具有完全的行为辨认能力,更无法证成人工智能体可以真正感知惩罚,所以人工智能体实际上不具有可罚性。〔5〕 参见张镭:《人工智能体可罚性辩疑》,《南京社会科学》2018年第11期。

不难看出,肯定说立足于科技高速发展与无限进步之可能性,认为人工智能完全可能具备刑事责任能力并成为犯罪主体;否定说则基于人工智能异于人类之本质,认为其不可能产生意识,不具备人那样的刑事责任能力,因而不能成为犯罪主体。两者均立足于传统的刑事责任理论,但结论却殊异。这在一定程度上揭示了学界在犯罪主体资格及犯罪主体范畴等方面存在的分歧。例如,刑法人类中心主义是如何确立的?赋予法人犯罪主体身份的理论基础是什么?法人有没有意识?法人意识是否为代理人意识?科技发展能否使人工智能可能具备人类的表征特征?人工智能可否产生意识和生成道德?等等。这些问题与人工智能是否具备犯罪主体资格密切相关。本文立足于自由意志论形成、刑法人类中心主义的确立以及法人犯罪主体身份的确立及其意识的生成等,结合近年来神经科学的发展及其在人工智能技术中的应用,对人工智能是否具有犯罪主体资格作出相对客观、科学的分析和评判,并就当前人工智能犯罪研究的意义加以简要论述。

考虑到液压介质的不可压缩性较强,可认为,当体积压缩量较小时,液压介质的体积模量为常数K。对于初始长度为x0,与活塞接触面积为S的圆柱形液压缸,可以建立压缩过程的控制方程为

二、自由意志论与刑法人类中心主义的确立

(一)惩罚动物的目的:消除罪恶、维护正义与教化

人与动物的最大不同,在于人具有自由意志与理性。根据古典学派的意志自由论,任何人都有为善避恶的自由意志,犯罪是恶,有自由意志的人能避之而实施之,就应承担刑事责任。“正因为刑事责任的本质在于自由意志行为人的反伦理道德性或反统治关系性之国家评价与个人负担,因此行为人负刑事责任的根据只能是这个自由意志行为。”〔17〕 李继红、肖渭明:《自由意志行为刑事责任论纲》,《法律科学》1997年第2期。 同时,人之所以能够认识并遵守规则,是由人的理性决定的。“就吾人全体状态以考虑可欲求者为何(即关于考虑何者为善为有益)之等等考虑,则根据理性。”〔18〕 [德]康德:《纯粹理性批判》,蓝公武译,商务印书馆2007年版,第366页。 理性驱使人类不会像动物那样基于本能而为,而是必须权衡利弊得失。〔19〕 [英]休谟:《论道德原理;论人类理智》,周晓亮译,译林出版社2010年版,第231~232页。 理性还要求人类在自由意志的支配下,若行动则应遵守规则和秩序,符合人一定的目的要求。“由于人性的特殊性,存在着一种人类理性可以发现的秩序或安排;人的意志必须按照这些要求行动,以使自己与人的本质性或必然性目的相符合。”〔20〕 [法]雅克·马里旦:《自然法:理论与实践的反思》,鞠成伟译,中国法制出版社2009年版,第17~18页。 犯罪属于非理性表现,如果在自由意志的支配下实施犯罪,就为处罚提供了根据。

渠系受益村社作物种植复杂,地亩不连片,作物需水量多少极不均匀,黑河调水频繁,夏秋季严重缺水,地下水和地表水混合使用,供需水矛盾尖锐,给测水量水工作带来极大困难。

那么,人工智能的表征特征是否有可能达到“小数据、大任务”的地步呢?对此,很多人会断然否定!在笔者看来,否定论过于悲观。近两年来,人工智能技术日新月异,人类在神经科学等领域也取得不少突破性成就,这些都为类人化智能代理的形成奠定了坚实的科技基础,人工智能的表征特征是完全有可能实现“小数据、大任务”的。

(二)自由意志论与刑法人类中心主义

启蒙运动以来,人们的权利意识逐渐增强,探究罪与刑背后的价值成为先哲们关注的热点。人们意识到,动物行为乃本能反应。“如果我不小心踩到我的狗,即使它平时很友好,也可能会咬我。我认为,这是一种本能行为,几乎是性格的反射。”〔14〕 A.Warren Stearns,“Evolution of Punishment”,Journal of the American Institute of Criminal Law and Criminology,Vol.27,No.2 (July-August 1936),p.219. 本能决定了动物缺乏自由意志。“马没有自由意志,它们的自然法不过是自身本质性倾向的集合体和宇宙法则的一部分。”〔15〕 [法]雅克·马里旦:《自然法:理论与实践的反思》,鞠成伟译,中国法制出版社2009年版,第19页。 靠本能驱动的动物行为,是中性且非理性的,不可能有着严密论证和推理过程。“动物的这种推断不可能建立在任何论证或推理的过程上,它不能根据那样的论证或推理过程得出结论说,相似的事件必定跟随相似的对象,自然的过程在运行时将永远是规则的。”这就决定了即使惩罚动物,效果也十分有限。于是,那些对动物使用司法程序的人,常被指责相信并执行对蛮兽的报应惩罚,以及赋予动物以意识和道德责任等。〔16〕 Supra note 〔6〕,at 43. 可见,缺乏自由意志与行为之本能与非理性,是动物被排除在犯罪主体之外的根本原因。

早期刑法制裁对象包括人以外的生物甚至非生命体。“在远古时代,无生命的物体可以受到法律的惩罚……”〔6〕 Harry Hibschman,“When Animals Were Criminals”,Legal Chatter,Vol.2,No.4 (November 1938),p.39. 古希腊时期的雅典会举行一些独特的谋杀审判,“因攻击人而致其死亡的无生命的东西,如石头、梁、铁片,等等,也要在普里坦库尼受审。最后是动物,它们同样是死亡的诉讼事由。”〔7〕 Walter Woodburn Hyde,“Prosecution and Punishment of Animals and Lifeless Things in the Middle Ages and Modern Times”,University of Pennsylvania Law Review and American Law Register,Vol.64,No.7 (1915-1916),p.696. 后来,人们意识到惩罚无生命物体毫无意义,刑法的规制对象便逐渐限定为生命体。因动物与人密切关联且不时危害人类,遂成为刑法关注的对象。在中世纪,惩治动物犯罪在欧洲极为常见。例如,在法国,“1314年,一头公牛袭击并杀死了穆瓦西附近的一名男子。这头野兽被判绞死在公共绞刑架上……1389年在第戎一匹马因犯杀人罪被判处死刑,1694年一匹母马因犯罪被烧死。”〔8〕 Supra note 〔6〕,at 39. 而且,历史上人类对动物的判罚在程序上几乎与对人类的判罚一样。“它们被带到法庭——家养动物被带到世俗法庭,野生动物被带到教会法庭。在那里,它们被正式传讯,由律师代表出庭、审判、无罪释放或定罪——如果罪名成立,它们将受到惩罚。”〔9〕 同上注。

一般的工作都要本科,也有要专科生的,一个月800块钱,连生活费都不够,咋干?龙生龙,凤生凤,老鼠的儿子会打洞。我生来就是个学捻船的料。我谁也不怪。我一个同学,当了一年兵,回来之后,就进了机关,咱没那个关系,也不能瞎羡慕。还有,咱们县,科级干部的子女大学毕业都安排在机关事业单位,根本不用考,咱有哪个特权吗?叔,你天生的就是个做光棍的料,我啊,命也和你差不多。天生的,找不到合适的工作。

自由意志与理性,是人类取得犯罪主体资格的前提,也是人能构成犯罪并接受刑罚制裁的基础。非生命体无自由意志可谈,当然排除在犯罪主体之外。动物有意愿却出于本能,故而无自由意志,行为也是非理性的,因而也不具备取得犯罪主体资格的条件。人类遂成为唯一能取得犯罪主体资格的生命体,刑法人类中心主义遂宣告确立。

(三)自由意志论的理论依据

自由意志论是以自然法理论为依据的。启蒙运动后,自然法理论逐渐发展成为独立于教会与神学、具有理性主义倾向的思想体系。根据自然法,赋予人的自由意志以生命力的是道德规范。“自然法是一种道德法。因为人是否遵守它是由自由意志而非必然性决定的……”〔21〕 同前注〔20〕,雅克·马里旦书,第20页。 约束人类行为的伦理道德规范源于人类的自然本性或和谐的宇宙真理,肯定自然法就应肯定法律的道德基础和品格。“肯定自然法,即是肯定法律为伦理的一部分,那么,自然法的基本功能便只能是居间调解道德领域和法律领域。自然法观念同时带有法律的品格和道德的品格。”〔22〕 [意]登特列夫:《自然法:法律哲学导论》,李日章等译,新星出版社2008年版,第140~141页。 犯罪因违背自然法则,不符合道德和法律规范,必须接受制裁。例如,禁止杀人是自然法戒律,杀人违背人的自然本性,需要接受法律制裁。“禁止谋杀是以人的本质为基础的,是人性本质的要求。‘不要杀人’这一律令是一条自然法戒律。”〔23〕 同前注〔20〕,雅克·马里旦书,第21页。 可见,自然法则和道德规范为人的自由意志确定了方向和目标。犯罪是人在其自由意志支配下实施的、违反伦理道德的非理性行为,行为人对自己所犯罪行应当承担道义责任。

供给情况:上周,国内尿素生产企业受环保压力和限气影响,开工率略有下降。原料方面,煤炭生产受环保和安检影响开工积极性不高,库存持续保持低位,价格保持高位。天然气方面,上周天然气价格上涨后高位企稳;液氨方面,需求保持低迷,价格持续下跌。

自由意志的社会学基础是社会关系和秩序。人类与动物的不同在于,人类形成了以道德规范为基础的社会关系和秩序。这种高级规则范式强化了人类意志的自主性,拓展了人类的生存空间,并能够实现自我不断升级向更高阶的形态演变。这反过来又会强化人类的意志自由和理性。动物的生存规则是纯粹自然化而非“社会化”的,故动物不存在道德理性,无所谓社会关系和秩序。“动物没有心愿需要表达,没有需要强加给它们的责任,或者不可能有任何理智的意识,它们不属于真正的社交网络——因此它们不能有意识地交往。”〔24〕 Geordie Duckler,“Animals as Criminals”,Journal of Animal & Environmental Law,Vol.10,No.1 (Fall 2018),p.39.

自由意志的心理学基础是人类的高级智识。人类基于自由意志作出理性决定,是因为人类拥有远超其他动物的高智力。“人具有智力并可以决定自己的目的,所以他就有义务使自己与人性所要求的目的相一致。”〔25〕 同前注〔20〕,雅克·马里旦书,第17页。 人类之高级智识的源泉是人脑。人的大脑远较动物大脑复杂,人的脑容量及其重量与体重之比也远远大于动物。动物大脑只有第一信号系统,即只对客观存在的事和物做出反应,没有抽象思维活动。人的大脑有第二信号系统,对事和物进行概括和抽象思维。正因具有高智识,人类才拥有自由意志和道德理性。

与自然法则一样,人的自由意志和道德理性本质上属于唯心主义认识论的范畴,是先验的而非社会实践的结果,具有拟制特点。同样,赋予法律以道德品格并要求人类在自由意志的支配下有节制地行为,也具有先验、拟制的特点。先验、拟制的自由意志论,在某种程度上可以说是为确立刑法人类中心主义量身定做的。这是因为,在当时的历史条件下,只有人类才具有自由意志和理性。立足于自由意志和理性,就可以将动物以及其他实体排除在犯罪主体之外。自由意志论之先验与拟制特点,为其拓展与扩张奠定了基础。

可以选择使用人工合成的化学物质,开展人工加倍。例如可以选择使用一定浓度的秋水仙素、除草剂等人工化学合成物质,对单倍体的根尖和茎尖进行处理,可以显著提高加倍速率。但因为利用化学技术手段,操作环节比较复杂,周期较长,人工投入和资金投入较高,对单倍体存在一定的毒性,该项技术不适合进行大规模的单倍体加倍处理,无法进一步得到更大规模的推广和应用。

三、法人犯罪与道德代理

伴随自由意志论及刑法人类中心主义的确立,犯罪主体多元化的历史逐渐终结。此后,人类作为犯罪的唯一主体被奉行。不过,自由意志论及刑法人类中心主义很快便受到了挑战,这种挑战来自法人的犯罪主体资格及其刑事责任的确立。

(一)法人的犯罪主体身份的确立

最初,法人是被排除在犯罪主体之外的。“法人因其本质特征而自身不能承担或实施某些特定犯罪,乃至于豁免责任的早期理论,至少在17世纪早期在特定案件中扩展刑事责任的一系列运动就已经确立。”〔26〕 Celestino Sagalongos,“Corporate Criminal Liability”,Philippine Law Journal,Vol.11,No.9 (March 1932),p.266. 反对法人成为犯罪主体的原因很多。“经典理由是,此类行为远远超出了法人的权力范围,因此很难被称为法人犯罪。”〔27〕 Joseph F.Francis,“Criminal Responsibility of the Corporation”,Illnois Law Review,Vol.18,No.5 (1923-1924),p.314. 同时,“法人没有心灵”“法人无社会责任”“法人不能被授权从事违法行为”〔28〕 Id,at 317. 也是常见理由。此外,“无辜的股东不应该为法人的罪行而受罚”〔29〕 Id,at 314. ,也是反对法人犯罪的原因之一。

法人成为犯罪主体,肇始于英美法系国家。法人刑事责任的确立和发展,与英美法系国家的工业化进程几乎是并驾齐驱的。随着资本主义经济的迅猛发展以及现代公司制度的建立,“法人实体作为美国经济和社会状况的一个主要因素,其迅速发展导致人们越来越多地考虑其参与日常事务的法律后果。一个主要方面是它对属于公认法律规则的业务行为所负的刑事责任。”〔30〕 Martin Gallin,“Corporate Criminal Liability”,Lawyer and Law Notes,Vol.4,No.2 (Fall 1950),p.3. 不过,法人刑事责任的适用范畴是一个不断拓展的过程,从最初适用于特定种类犯罪,发展到适用于更多犯罪,最终成为刑法学中的一项规则。“到十九世纪中叶,刑法学中已经确立了一项规则,即公司在不履行所加义务的情况下,不能因不作为而免于受到控告和刑事起诉。”〔31〕 Supra note 〔26〕,at 266.

4.1.2 以病例为评价对象 整体护理的开展,实现了护理工作模式由功能制护理到患者为中心的转变,而护理质量评价尚未很好的关注对整体病例的评价,即根据病例分型识别和评价患者的护理需要程度。有以下6种分型:①病情分型,区分患者的危重程度;②自理能力分型,识别需要生活照顾的患者;③心理状态分型,把握有心理服务需要和有纠纷倾向的患者;④经济地位分型,把贫困患者与社会名流区分出来;⑤护理措施分型,把不同护理等级和使用高新技术与风险技术的患者区分出来;⑥满意度分型,把不满意的患者区分开来,根据上述病例分型,建立重点病例报告制和病历质量评价标准和评价表,评价整体护理质量。

目前,强人工智能时代并未到来,至于未来何时到来尚未可知。这就可能会让人觉得现在讨论人工智能的犯罪主体资格为时过早。其中代表性的观点是,“若将法律的预防功能指向不知何年何月才会出现的‘假想主体’,则根本错解了预防主义,一如英明睿智的秦皇汉武也不可能以‘展望未来’的姿态为醉酒驾驶机动车的立法浪费笔墨,这与他们的想象力无关,而是由于这一时代根本不存在这种‘定分止争’的需要。”〔77〕 刘艳红:《人工智能法学研究中的反智化批判》,《东方法学》2019年第5期。 该观点有其合理之处。但笔者认为,该观点未免过于消极。主要原因在于:

2.3.1 一般处理 术后常规留置三腔导尿管。若术中止血良好,术后不需要持续膀胱冲洗。导尿管可在术后3~7 d拔除,但术中有穿孔的患者引流时间应适当延长,可留置7~10 d。术后全身使用抗生素预防感染,酌情使用止血药物。

(二)雇主责任原则与道德代理

法律在拟制法人的行为与刑事责任的同时,也拟制了法人的意识和意志。例如,在1901年州诉阿拉斯加包装工公司案中,法院称:“法人具有同样的犯罪意图和行为——换句话说即犯罪能力——正如一个人构成犯罪所要求的类似要素那样。”〔35〕 George F.Canfield,“Corporate Responsibility for Crime”,Columbia Law Review,Vol.14,No.6 (1914),p.475. 1908年,在纽约中央车站和哈德逊河铁路公司诉美国政府一案中,法院首次将犯罪意图归咎于一家公司。几年后的1917年,英国发生了穆尔塞尔兄弟诉伦敦和西北铁路公司一案,法院也将犯罪意图归咎于一家公司。〔36〕 See Thomas J.Bernard,“The Historical Development of Corporate Criminal Liability”,Criminology,Vol.22,No.1 (Fabruary 1984),p.9. 在英美法系国家刑法理论中,对法人意识的属性有两种不同解读:一是代理人意识主义;二是集体意识主义。

代理人意识主义是英国公司法的传统主张,认为法人只是纯粹拟制的法律制度,并不具有现实内涵。“法人是一种法律制度,除了纯粹的法律之外没有超越现实。”〔37〕 Louise Jordaan,“New Perspectives on the Criminal Liability of Corporate Bodies”,Acta Juridica,Vol.2003 (2003),p.63. 拟制意味着法人无独立意识和意志,代理人的意识和意志就是法人的意识和意志。因此,法人的意识和意志具有他属性。但问题在于,既然法人的意识和意志附随于代理人而缺乏独立性,那么为什么不直接归责于代理人,而让法人承担刑事责任呢?对此,代理人意识主义无法自圆其说。

集体意识主义主张法人意识是集体化意识,并不附属于代理人意识。“法人意识是‘建设性的’或‘后天的’,而不是实际的或真实的。的确,真正的法人罪责不应完全附属或者依赖于代理原则。”〔38〕 William S.Laufer,“Culpability and the Sentencing of Corporations”,Nebraska Law Review,Vol.71,No.4 (1992),p.1090. 在1994年召开的第十四届国际比较法大会上,有学者提出“拟人化”学说,认为身份识别进路是刑法体系的一种自然反应,其与自然人行为概念一并发展为核心要素,因而有必要让法人“人性化”,赋予它们人类的精神和身体属性。〔39〕 Supra note 〔37〕,at 54. 集体意识主义赋予法人独立的意识和意志,既有利于解决法人犯罪的归责问题,又有利于解决代理人意识不明情况下的归责问题。〔40〕 例如,在美国诉新英格兰银行案(United States v.Bank of New England)中,新英格兰银行被判故意违反《货币交易报告法》,但当时没有证据表明新英格兰银行的雇员在实施违反法案的犯罪行为时有犯罪故意。鉴于在复杂和分散的结构中活动的个别罪犯难以确定,若不以集体意图为据将很难进行归责。在这种情况下,集体意图的发现不仅是适当的,而且是必要的。See Cristina De Maglie,“Models of Corporate Criminal Liability in Comparative Law”,Washington University Global Studies Law Review,Vol.4,No.3(2005),p.557. 其消极之处在于,若无犯罪代理人的情况下,法人仍有可能因犯罪而被追究责任。但是,肯定者认为这些批评没有理解法人犯罪的最终目的是制止和惩罚公司的不法行为,毕竟现有的法人意识和故意否定学说在克服代理人的起诉定位问题和法人犯下特定意图犯罪上发挥的作用是有限的。〔41〕 See Stacey Neumann Vu,“Corporate Criminal Liability: Patchwork Verdicts and the Problem of Locating a Guilty Agent”,Columbia Law Review,Vol.104,No.2 (March 2004),pp.474-475.

工具化人工智能不具有人类那样的综合性、通识性的智识和能力,一般只能从事模仿、模拟特定的人类行为的任务,如语音识别、图像识别和翻译等。因此,工具化人工智能只能完成特定化的任务,其所发挥的作用也是相对单一、机械的,因而主要充当的是人类工具的角色。通常所谓的弱人工智能就属于工具化人工智能。类人化人工智能具有人类那样的综合性、通识性的智识和能力,即能够同时具有语音识别、图像识别、翻译等诸般智识和能力,可以思考、分析、解决问题,能够进行抽象思维和理解复杂概念。因此,类人化人工智能可以完成或者基本完成只有人类才能胜任的任务,可以称为人类的伙伴、合作者。一般来说,强人工智能与超人工智能属于类人化人工智能。

不过,在司法实践中,法官对将所谓的集体意识主义运用到具体的案件中往往持谨慎态度。事实上,很难将法人意识与其代理人的意识割裂开来。“既然法人是由它的高级职员和代理人实施的,那么他们的目的、动机和意图就和法人的目的、动机及意图一样重要。”〔44〕 N.Y.Cent.& Hudson River R.R.Co.v.United States,212 U.S.481,492-93 (1909). 于是,如何化解分歧就成为解决问题的方向。应当承认,即使法人具有独立的意识和意志,也是以代理人的意识和意志为基础的,这就需要厘清法人意识与代理人意识之间的关系。对此,有人提出了雇主责任原则。“雇主责任原则的‘有利意图’要素,是为了将代理人意图与雇主法人联系起来,缩小刑事责任的范围……对于将代理人意图与雇主法人联系起来而言,有利于雇主的意图至关重要。”〔45〕 Supra note 〔37〕,at 475. 雇主责任原则既不否定代理人意识,又承认法人意识的独立性,相对妥善地解决了法人意识与代理人意识之间的关系,成为法人犯罪的正当化根据。“目前,一般的规则似乎是,如果任何级别的雇员在其受雇范围内基于使法人受益的意图而犯罪,法人需要对此承担刑事责任。”〔46〕 Supra note 〔36〕,at 10-11. 据此,若代理人具有使法人受益之意图,则代理人意识就成为法人意识,法人应对代理人的行为承担刑事责任。

法人的意识既然以代理人的意识为基础,自然就具备参与社会活动和作出决策的智识和能力。“让法人对其造成的伤害和错误负责的理由,首先在于它们有能力在理性的基础上作出决策,尽管这对它们来说是特殊的。第二个更普遍的理由是,法人能够而且确实以权利人的身份参与社会活动。”〔47〕 Jennifer A.Quaid,“The Assessment of Corporate Criminal Liability on the Basis of Corporate Identity: An Analysis”,McGill Law Journal,Vol.43,No.1 (January 1998),p.113. 根据雇主责任原则,法人既不具有超然独立的道德理性,同时代理人的道德理性也不能替代法人的道德理性,必须通过“使法人受益”来限定法人的道德理性范畴。这样,法人就形成了自身独特的道德理性,能够实现道德代理,只是这种道德代理并非完全独立、充分的。道德代理是法人取得犯罪主体资格的正当化根据。

法律的生命来源于生活,而不是理想。法律必须对时代需要、普遍存在的道德和政治理论、有关公共政策的直觉知识以及公开承认或下意识的现象作出反应。〔48〕 See Sara Sun Beale,“The Development and Evolution of the U.S.Law of Corporate Criminal Liability and the Yates Memo”,Stetson Law Review,Vol.46,No.1 (Fall 2016),p.69. 法人成为犯罪主体最强有力的理由,便是实践需要。在英美法系国家,尽管对法人犯罪仍存在争议,但争议的焦点并不在于法人是否可以归责,而是如何合理地归责。鉴于传统的归责模式难以适用,理论上又提出替代模式、身份识别模式以及混合归因模式等,而司法实践则朝着组织学说的立法应用迈进。〔49〕 See Conor Davis,“Corporate Criminal Liability: Developing a Legislative Model of Attribution”,Trinity College Law Review,Vol.20(2017),p.146.

尽管法人的道德代理是不充分的,却也突破了传统的意志自由论的框架,对刑法人类中心主义造成了冲击。这就不难理解,为什么仍有像德国这样的国家坚定奉行刑法人类中心主义,对法人犯罪不予承认。不过,若单纯以人和法人之主体性不相容为由,即使站在传统刑法理论的立场,也不应绝对排斥法人犯罪。如果能认识到刑法人类中心主义赖以确立的自由意志论与法人之犯罪主体身份均具有先验、拟制特征,而将后者视为前者之拓展与扩张,对法人犯罪就不会那么排斥了。

四、智能代理与人工智能的犯罪主体资格

(一)工具化人工智能与类人化人工智能

人工智能无明确、权威定义,人们对之定义大多是模糊的、概括的。如认为人工智能是“创建的一种拥有智能行为的计算机程序”,或“创建的一种可以模拟人类行为的计算机程序”,或认为人工智能是能够实施“理性行为”或“做普通计算机难以做的事情”的有机体,或干脆谓之“创建的一种普通人认为其行为方式是智能的计算机程序”。〔50〕 See Faye Mitchell,“The Use of Artificial Intelligence Indigital Forensics: An Introduction”,Digital Evidence & Electronic Signature Law Review,Vol.7,No.1 (2010),p.35. 不过,根据人工智能的智能化程度,基本上可以将人工智能分为工具化人工智能与类人化人工智能。

强调法人独立的集体意识,意味着赋予法人独立的道德代理人角色。“直接将意图归于法人,而不通过与法人有关的人的意图和心理状态进行任何调解,将需要充分接受这样一种观点,即法人本身就是充分的道德代理人。”〔42〕 Supra note 〔37〕,at 63. 这无疑动摇了自由意志论的理论基础,也意味着古典学派所主张的道德过错与道义责任受到新的挑战。“单纯以道德过错为基础的刑事责任概念,正面临着不以道德过错为基础的更现实的刑事责任概念的挑战。”〔43〕 Frederic P.Lee,“Corporate Criminal Liability”,Columbia Law Review,Vol.28,No.1 (January 1928),p.1.

(二)智能代理及其形成

1.智能代理的含义

智能代理也常被称为智能软件代理,是针对装有智能软件的机器人等人工智能设备而言的。人们对于何谓“智能代理”并无统一定义。有学者认为,智能代理是指承担复杂或独立功能的系统。“这些‘智能代理’用于复杂和大规模的信息搜索、数据组织和电子商务交易功能。这些智能机器可以被直接编程,在没有任何人为干预的情况下执行特定功能,以便根据外部世界或通讯网络信号作出相应的反应。”〔51〕 Emre Bayamlioglu,“Intelligent Agents and Their Legal Status”,Ankara Bar Review,Vol.1,No.1 (January 2008),p.46. 有学者提出,“智能代理就是这些程序中的一个,通过独特的网络外包合同给用户提供服务,使他们能够找到信息、产品或服务,或者在某些情况下进行合同谈判、签署和执行。”〔52〕 Mohammed Abu El-Haija, Anees Al-Mansour,“The Intelligent Agent and Dubai Legislature Situation from Legal Action Made through Intelligent Agent”,Journal of Law,Policy and Globalization,Vol.30 (2014),p.9. 还有学者认为智能软件代理具有许多特征,如不受被代理人(或其他)用户干预的自主性、通过共享代理通信语言与其他代理人和人类通信的社会能力、感知环境并对其中发生的变化作出反应以及能够主动采取目标导向行动。〔53〕 See Stuart R.Cross,“Agency,Contract and Intelligent Software Agents”,International Review of Law,Computers &Technology,Vol.17,No.2 (July 2003),p.177.

不难看出,从简单的数据处理系统到具有一定自主性的智能系统,均可以认为是智能代理,其范畴较为广泛。显然,智能代理不可过于泛化,需要加以适当限缩。一般认为,自主性是智能代理的显著特征,这种自主性不仅仅指简单的数据统计分析等,还应该包括更重要的学习、反应能力或决策能力等。有学者就指出,“‘真正’智能的系统不仅能按照模板组织采集到大量数据,从而尽可能有效地达到预期目标,还能够(在最广泛的意义上)学习,其方式是根据所获得的信息调整自己的行为。”〔54〕 [瑞士]萨比娜·格雷斯、[德]托马斯·魏根特:《智能代理与刑法》,载陈泽宪主编:《刑事法前沿》第10卷,社会科学文献出版社2017年版,第217页。 据此,笔者认为,所谓智能代理是指具有自主学习能力并能够采取一定的自主行动的智能软件系统。

尽管智能代理是人工智能具备犯罪主体资格的前提条件,但并非所有智能代理均可使人工智能获得犯罪主体资格。具备犯罪主体资格的人工智能必须是能完成特定任务的智能代理。有学者提出第一代与第二代智能软件代理概念。第一代智能软件代理即目前商用的“软件代理”。“智能软件代理是基于规则的软件产品,它可以帮助进行互联网搜索、过滤传入的电子邮件、在在线文档中找到帮助程序的适当区域、查看关于指定主题的新闻,并建议更改您的股票投资组合。”〔55〕 Suzanne Smed,“Intelligent Software Agents and Agency Law”,Santa Clara Computer and High-Technology Law Journal,Vol.14,No.2 (1998),p.503. 这类智能软件多半履行工具职能,一般被认为是工具化代理,不可能取得犯罪主体资格。第二代智能软件是建立在神经网络基础上的软件代理产品。这些产品“将能够从经验中学习,并相应地调整自己的行为。因此,具有这种学习能力的软件程序将具有决策能力,从而导致软件可能采取许可方或被许可方都没有预料到的行动。”〔56〕 同上注。 显然,第二代智能软件能够使人工智能根据自己的意志独立决策,已经初步具备了人的一些表征特征,故可称为类人化智能代理。只有类人化智能代理才可能获得犯罪主体资格。

2.类人化智能代理的表征特征及其形成〔57〕 鉴于理解人工智能的智能代理的形成有赖于生物科学、神经科学等方面的专业知识,为了使本文更具有专业性和客观性,以下与此相关的文献资料,主要摘自《自然》等世界权威性科技杂志。

表征特征即认知能力,是人工智能和认知科学的核心。〔58〕 See Mark H.Bickhard,“What Could Cognition Be If Not Computation...or Connectionism,or Dynamic Systems?”,Journal of Theoretical and Philosophical Psychology,Vol.35,No.1 (2015),p.53. 人工智能要想完成代理任务,需要具备人所具有的心理条件,即特定的认知能力。目前,人工智能在某些认知能力上远远超过人类。尽管如此,在最核心的认知能力上,如完成新任务、解决新问题等方面,人工智能不及人类。原亚马逊和微软的机器学习和自然语言专家格雷格·胡伦德曾认为,人类的大脑可以解决以前从未见过的问题,机器学习却不能如此,一切都是为特定问题构建的。〔59〕 See Jeff Hecht, “Meeting People’s Expectations”, Nature,Vol.563 (29 November 2018),p.S142. 这可以说代表许多人的看法。具体地说,当前人工智能的表征特征可以概括为“大数据、小任务”,人类的表征特征可以概括为“小数据、大任务”。

所谓“大数据”即“大数据”驱动能力,是指人工智能通过海量数据训练,所具有的在特定任务上超过人类专家的能力。所谓“小任务”是指人工智能的知识运用情境能力差,难以举一反三、高效完成各项任务。例如,在布朗案〔60〕 2016年5月7日,在佛罗里达州,美国海军退伍老兵约书亚·布朗驾驶一辆特拉斯自动驾驶汽车,撞上一辆横穿马路的18轮白色拖车,不幸毙命。See Jesse Krompier,Safety First, “The Case for Mandatory Data Sharing as a Federal Safety Standard for Self-Driving Cars”,University of Illinois Journal of Law,Technology & Policy,Vol.2017,No.2 (Fall 2017),p.441. 中,尽管拥有海量信息,在缺乏针对性指令时,自动驾驶汽车却不能完成甄别白色货箱壁与天空这种简单的任务,乃至冲撞大货车致布朗死亡。相反,人类难以通过海量数据训练而只能依靠日积月累获得某项超级技能,此表征特征可谓之“小数据”。不过,人类依靠少量数据样本便可快速提取知识,并将所学灵活运用到不同任务情境中,此表征特征可谓之“大任务”。例如,在上述案例中,即使从未见过白色货箱壁拖车,人类也不会将之与天空混淆而驾车冲撞。

人类惩罚动物有着深刻的宗教渊源和基础。“古代法学的刑法性质,坚持惩罚的机械性、严厉性,几乎没有明确指向且具有无意识的性质,坚持惩罚有自己的宗教基础。”〔10〕 [英]马林诺夫斯基:《原始社会的犯罪与习俗》,原江译,云南人民出版社2002年版,第52页。 人类在早期对于什么是犯罪、如何处罚犯罪带有偶然性与随机性。宗教作为人类的精神寄托和终极关怀,其本能反应便是排除异己、魔幻化未受洗礼的人和物。既然动物危害人类生存及利益,理当受到严惩。因为,在宗教信徒看来,“所有的动物都是魔鬼的化身,所有的异教徒和未受洗的人都是魔鬼的化身。”〔11〕 Evans,E.P.(Edward Payson),“Criminal Prosecution and Capital Punishment of Animals”,E.P.Dutton and Company,1906,p.vi. 人类惩罚动物的意义,主要在于消除罪恶、维护正义与教化。例如,1494年,在意大利一头猪因在教堂所属的土地上谋杀而被定罪,裁判理由是,“因为嫌恶和恐惧犯罪,最终以儆效尤及维护正义……现被作为囚犯拘留在赛义德修道院当事猪,应当成为绞刑架的主人被绞死或勒死。”〔12〕 Supra note 〔6〕,at 40. 当然,惩罚动物类似于动物训练,有其教化效果。“在某些方面,实验室模型类似于动物训练——因为动物通常被用于实验对象——以及类似于儿童教养——这两种情况都使用了常见的惩罚刺激类型。”〔13〕 Barry F.Singer,“Psychological Studies of Punishment”,Crime Law and Justice Annual,Vol.1 (1972),p.149.

众所周知,人类独有的高级认知能力源自大脑。与人工智能相比,人脑构造及其功能运作具有高度复杂性。人脑中有数十亿个神经元,它们通过数万亿个称为突触的微小接触相互连接。神经元就像个微处理芯片,能将接收的信息符号整合,并通过突触发出电脉冲来传递信号。人脑完成一项复杂活动,需要具备两大功能,即组织决策功能与神经网络的高度连通功能。前者是指人脑将接收的外界信息、符号等并加以集成、统筹和整合,并做出决策的功能;后者是指人脑的神经网络高度联结、互通的功能,是前者正常运作的条件。在这两方面,现有科技虽未能完全实现,但已经取得了突破性进展。

人脑的组织决策功能可以分解成路径集成功能、神经符号整合功能和决策功能。人脑在导引航向时,会对方向、距离和位移进行精确计算,这个过程被科学家称为路径集成。〔61〕 路径集成有赖于不同的神经元和细胞发挥作用,如定位细胞发出位置信息和符号,头部方向细胞发出头部方向信号和符号,等等。 对于人工智能而言,尽管深度学习网络可以帮助其完成很多只有人类才能完成的工作,如从零开始自学围棋。但是,深度学习却难以使人工智能拥有人脑的导航能力,因而人脑的路径集成功能便成为人工智能技术难以逾越的一道坎。不过,新近两年科学家们已经初步找到了人脑的路径集成解决方案。“从更广泛的角度来看,不考虑特定的生物学机制,从非常普遍的计算假设出发,立足于深度学习网络找到一个类似于大脑路径集成的解决方案,还是很有吸引力的。网络聚合就是这种解决方案令人信服的证据,特别是网格单元格的活动模式就支持路径集成。”〔62〕 Francesco Savelli & James J.Knierim,“AI Mimics Brain Codes for Navigation”,Nature,Vol.557 (17 May 2018),p.314. 未来,人脑路径集成的人工化并不是梦。

神经符号整合功能是指人的脑神经对所接收的各种信息和符号进行协调、统筹、整合的功能。一直以来,神经符号整合是人工智能类人化的一大瓶颈。近年来,人工智能模拟人脑神经符号整合在技术上已经取得实质性进展。科学家已经开发出了一款被称为可微神经计算机(DNC)〔63〕 该系统由几个模块组成,所有模块都是非符号的,通过交换纯模拟激活模式来操作——就像从生物大脑中记录的那样。主要模块有两个:一是由一个大的存储单元网格组成的“内存”;二是一个由人工神经网络组成的“控制器”。DNC拥有数万个可调参数的数学对象,训练这样的系统会引发大量的数学、数值和程序运行期问题。而且,DNC具有灵活、可扩展的记忆风格。 的神经计算系统,使得人工神经系统能够习得人类神经符号推理的某些非琐碎的核心方面,且可能允许将深度学习扩展到具有理性推理组件的大数据应用程序中。人们相信,DNC结构与生物大脑结构之间可能存在映射关系。〔64〕 See Herbert Jaeger,“Deep Neural Reasoning”,Nature, Vol.538 (27 October 2016), 2016,pp.467-468. 至于人脑的决策功能,则是人类大脑在将信息和符号等进行整合后产生的一系列生化合成反应。目前,在将信息和符号等进行化学合成方面,科学家们也进行了一系列尝试,并取得了初步成效。〔65〕 例如,德国明斯特大学的Marwinh S.Segler等人通过实验证明,“蒙特卡罗树搜索与深度神经网络和符号规则相结合,可以有效地进行化学合成规划。与早期的工作相比,我们的纯数据驱动方法可以在几天内初步建立起来,而不需要繁琐且有偏见的专家编码或管理,并且适用于磁盘线规模的数据集。”Marwinh S.Segler,Mike Preuss & Mark P.Waller,“Planning Chemical Syntheses with Deep Neural Networks and Symbolic AI”,Nature,Vol.555 (29 March 2018),p.609.

老师在鼓励学生阅读的同时不妨创设情境,让几个学生结为一个阅读小组布置一篇有趣的文章。例如在人教版小学语文二年级上册的课本中就有《曹冲称象》、《狐假虎威》等我国有名的短故事,但是很少有涉及到外国寓言童话的小文章,所以老师们不妨给学生布置一些《伊索寓言》、《格林童话》等,每周选择一个阅读小组让小组自行选择一篇最近阅读过的小故事进行小组课堂表演,利用表演的方式激发起学生的阅读兴趣。

至于人脑神经网络之间如何实现高度连通、无缝衔接,一直以来是个谜。要知道,这是数以千百亿计的神经元和突触相互之间交换、传递信息和符号的过程。不过,近年来科学家们发现,人类大脑的异质合成功能是保证大脑神经网络系统达成高度连通性的关键。一旦人工智能具备该项功能,就意味着具备了与人脑类似的复杂神经功能。美国西北大学材料科学与工程系研究人员Vinod K.Sangwan等人报告了在一个可升级的加功过程中,使用由多晶单分子层二硫化钼(MoS2)构建的多端混合记忆电阻器和晶体管设备的实验。实验结果表明,该设备具有完成复杂任务的可调异质合成功能,能够实现复杂的神经形态学习。〔66〕 See Vinod K.Sangwan et al,“Multi-terminal Memtransistors from Polycrystalline Monolayer Molybdenum Disulfide”,Nature,Vol.554 (22 February 2018),p.500. 对于Vinod K.Sangwan等人的成果,有学者评价道:“这样的设备可以使神经网络系统的建设具有高度的连通性,并可以执行复杂的神经功能。这一设想中的网络技术,如果最终被创造出来,将对基于硬件的人工智能(AI)的发展产生巨大的影响。”〔67〕 See Da Li & Xiao Gan Liang,“Neurons Mimicked by Electronics”,Nature,Vol.554 (22 February 2018),p.472.

上述科学家们在神经科学等领域取得的最新进展,为人工智能在表征特征上由“大数据、小任务”进化到“小数据、大任务”奠定了坚实基础。科技进步的周期往往是呈几何型递减的,一旦有所突破会带来飞速发展。人工智能之“大数据”表征特征,神经科学等领域的新成果以及深度学习、云计算等新技术,将会大大加快生成类人化智能代理的步伐。

(三)人工智能的道德生成及其犯罪主体资格

神经科学等的发展可能会赋予人工智能以人类智识,同时也意味着能够使人工智能形成意识和生成道德。那么,人工智能的意识是如何形成的呢?当前,关于意识的产生,起主导作用的理论主要有二:一是美国心理学家巴尔斯和法国神经科学家迪昂等人提出的神经元全局工作空间理论;二是美国神经科学家托诺尼等人提出的信息整合理论。

神经元全局工作空间理论与实验神经科学证据关系密切,试图立足于大脑运作机理来阐释意识。〔68〕 该理论将大脑功能区分为专门区和多功能区。前者负责记忆、感知信号及处理等;后者居于大脑网络中心,负责从其他区域搜集信息并加工处理,执行并完成复杂任务。意识产生于多功能区。 根据神经元全局工作空间理论,未来的计算机是有意识的,意识来自一种特殊类型的信息处理。传播这些信息的神经元网络位于额叶和顶叶,一旦数据在这个网络上广播且全局可用,主体就会意识到它。虽然目前机器还没有达到这种复杂的认知水平,但只是时间问题。〔69〕 See Christof Koch, “What Is Consciousness? ”,Nature,Vol.557 (10 May 2018),p.S12. 信息整合理论则不讨论大脑运作情况,而是试图将意识与信息本质联系起来。〔70〕 根据该理论,在一个网络中,节点越多则信息相互连接的形式就越多,这个网络产生意识的能力就越强。意识并非产生于大脑各单功能区,而是产生于内部拥有复杂连接结构且与各专门神经区相互连接的功能区。 根据信息整合理论,“在数字计算机上运行的人脑的复杂模型不可能有意识——即使它能以与人类难以区分的方式说话……为意识编程也永远不会创造出一台有意识的计算机。意识不能被计算,它必须被构建于系统的结构中。”〔71〕 Supra note 〔69〕,at S12.

虽然代理人制度促生了法人的刑事责任概念,但法人若要成为犯罪主体还需法律确定。这是因为,法人属于社会组织,其自身并无行为能力。“法人可以行动吗?当然不能亲自。法人的一切行为都必然具有替代性。它只通过代理人发挥作用。”〔33〕 Supra note 〔27〕,at 309. 因此,法人的行为及责任需要法律规定。法人只有被法律赋予行为能力和责任能力时,才能构成犯罪并承担责任。“只有当法律赋予它行为时,它才会行动。”〔34〕 Supra note 〔27〕,at 309. 可见,法人的犯罪主体资格具有拟制的特点。

信息整合理论充分认识到人类意识范围和内容的宽泛性与复杂性,加之神经科学尚处于发展阶段,故认为人工智能不可能产生意识有其道理。不过,立足于大脑运作机理的神经元全局工作空间理论是以实证为基础,通过对人类大脑产生意识的过程进行精确剖析和科学解构得出的结论。这种解决问题的路径,或许会随着神经科学的深入发展越来越显现出生命力。“新开发的测量大脑活动的技术使科学家们能够完善他们关于意识是什么,它是如何在大脑中形成的,以及意识和无意识之间的界限在哪里的理论……随着科学家们越来越善于探测意识,他们已经开始确定哪些大脑区域和回路是最重要的。”〔72〕 Emily Sohn,“Decoding Consciousness”,Nature,Vol.571 (25 July 2019),p.S3. 客观地说,人类意识的产生极为复杂,但再复杂也不是杂乱无章的。通过对大脑意识产生的基本原理进行精确解构,将复杂的过程简单化,从而解决人工智能的意识生成问题,并非不可能实现。例如,著名的柯尔莫戈罗夫意识理论就试图通过算法信息理论将复杂的意识过程简单化,达到解剖意识形成机理的效果。〔73〕 根据柯尔莫戈罗夫意识理论,借助算法信息理论提供的方法,将表面复杂的外界数据通过计算和压缩予以简单化,并将“存在意识”作为一个公理,对结构化体验提出要求,就可以通过计算系统生成能够对世界信息进行压缩的“大脑”。See Giulio Ruffini,“An Algorithmic Information Theory of Consciousness”,Neuroscience of Consciousness,2017,3(1),p.8. 根据该理论,人工智能完全可以模仿人脑生成意识。

既然人工智能可能形成意识,那么可能生成道德也就水到渠成。为了研究机器将如何作出道德决策,以及如何量化社会对指导机器行为的伦理原则的预期,美国麻省理工学院的爱德蒙·阿瓦德教授、哈佛大学索汉· 德苏扎教授等人,专门建立了一个在线实验平台。这个平台收集了来自233个国家和地区数以百万计的人用10种语言做出的4000万个决定。实验结果表明,人类道德因内部冲突、人际分歧和文化差异等千差万别,要达成全面的一致性道德是不可能的。“试图为智能机器建立广泛的道德规范,例如艾斯洛玛尔人工智能原则,经常建议机器道德应该与人类价值观保持一致。然而,这些准则很少认识到,人类在道德领域经历了内部冲突、人际分歧和文化差异。〔74〕 Edmond Awad et al,“The Moral Machine Experiment”,Nature,Vol.563(November 2018),p.63. 然而,尽管世界各地的道德千差万别,但也存在共通之处,这为人工智能的道德奠定了基础。“世界上广大地区表现出相对一致的事实表明,我们达成共识的机器伦理之路并非从一开始就注定要失败。”〔75〕 同上注。

既然人工智能可能形成意识和生成道德,就意味着可以获得犯罪主体资格。不过,具备犯罪主体资格与成为犯罪主体是两回事。有人认为,如果有朝一日人工智能达到甚至超越人类的智识水平,那么就可以直接成为犯罪主体。“在这一天,我们可能准备直接将刑事责任归咎给所有行动者,并认为他们同样有能力作出合乎道德的选择和犯下错误,我们甚至可能邀请彼此参与对犯罪作出反应的立法和司法进程。”〔76〕 Dafni Lima,“Could AI Agents Be Held Criminally Liable: Artificial Intelligence and the Challenges for Criminal Law”,South Carolina Law Review,Vol.69,No.3 (Spring 2018),p.696. 对此,笔者认为不可一概而论。在英美法系国家,法官法之特征决定可以直接将人工智能认定为犯罪主体。在成文法系国家,即使人工智能具备犯罪主体资格,因其迥异于人类主体,若要成为犯罪主体也应由立法明文规定,否则违背罪刑法定原则。

五、与人工智能犯罪主体资格攸关的两个问题

尽管科技进步很大,至少目前人工智能尚未形成意识和道德理性。至于何时能形成,很难有确切答案。还有就是一旦人工智能的智识比肩人类甚至强于人类,那么让人工智能成为犯罪主体并承担刑事责任,是否真的具有可行性。这两个问题并不涉及人工智能可否取得犯罪主体资格之争,却与人工智能的犯罪主体资格问题密切相关,有必要加以分析和回应。

2017年建立马铃薯种植综合标准化示范区135.38 hm2,标准覆盖率100%,涉及农户852户,实现总产量444.65×104kg(单产32844kghm-2),总产值449.24万元;新增产量68.0×104kg,新增产值97.98万元,农户年增收入1150.0元。辐射示范1200hm2,涉及农户7800户;常规种植区马铃薯单产25308.75kghm-2。通过示范区建设及辐射,增加了农民标准化生产意识,激发了农民种植马铃薯标准化生产积极性,提高了马铃薯生产标准化水平。

(一)探讨人工智能犯罪主体资格问题是否为时过早

法人成为刑事责任主体是受代理人制度启发的。众所周知,在侵权法中,被代理人需要对代理人的侵权行为承担责任。法人制度的一项基本原则是,法人的行为是通过代理人实施的,若因代理人侵权则不能仅将责任归于代理人,法人作为被代理人理应担责。同样,若代理人犯罪,作为被代理人的法人难辞其咎。“如果代理人在履行其委托人的义务时犯了罪,尽管证明授权或引诱的问题是困难的,但除非我们能以某种方式证明他是犯罪的一方,否则我们不会将犯罪强加于委托人。”〔32〕 Supra note 〔27〕,at 316.

首先,没有充分认识人工智能及其所处的发展阶段。近些年,人工智能技术发展取得很多突破性进展,〔78〕 代表性的是谷歌旗下Deepmind公司开发的新版程序AlphaGo Zero的无监督自主学习。AlphaGo Zero从空白状态起,在不需要任何人类输入的条件下迅速自学围棋。72小时后以100∶0的成绩击败AlphaGo Lee,40天后以89∶11击败AlphaGo Lee的升级版AlphaGo Master。此前,人工智能面临的最大挑战之一是从零开始以超人类水平学习复杂概念的算法,AlphaGo Zero跨越了这个阶段,在人工智能发展史上具有里程碑式的意义。 认为强人工智能时代悄悄逼近也不为过。2017年12月,中国大陆首条全自动无人驾驶运行线路——北京轨道交通燕房线开通运营。此后,北京启动无人驾驶试运营基地项目建设,浙江省宣布将建设首条超级高速公路全面支持自动驾驶,上海发放全国首批智能网联汽车开放道路测试号牌,北京街头出现京东自动驾驶配送机器人,等等。国外更是有过之而无不及。例如,日本要把2020年东京奥运会变成“科技奥运”,届时出租车和选手村里的所有巴士都要进入全自动驾驶系统。全自动驾驶汽车可以自主驾驶、自主决策,绝非普通的工具化人工智能。总体来看,当前人工智能发展阶段处于由弱人工智能向强人工智能过渡时期,强人工智能时代并非遥不可及。如果了解人工智能发展史及其现状,就不会轻言强人工智能“不知何年何月才会出现”。〔79〕 40多年前,人们认为在国际象棋、定理证明和机器人控制等方面,人类胜过计算机。(See J.R.Ullmann,“The Credibility of Machine Intelligence”,Nature,Vol.257 (16 October 1975),p.546.)但在30年前的1989年IBM的“深蓝”(deepblue)就击败了国际象棋大师。2016年,AlphaGo在公认的人类最复杂的棋牌类竞技项目——围棋上,以4∶1击败世界围棋冠军李世石。2017年,AlphaGo以3∶0碾压世界围棋第一人柯洁。在人类失败之前,几乎无人相信智能棋手战胜人类最强者,但不相信不等于不能实现。

其次,将法律的预防功能与立法先行混淆。一般来说,法律的预防功能是指法律颁行后通过法制宣传教育等方式达到预防违法犯罪发生的功能。立法先行则指立法机关为防止某种社会现象可能或者即将导致的社会问题,先行制定法律规制相关社会关系。立法先行是我国推进依法治国的目标之一。《中共中央关于全面推进依法治国若干重大问题的决定》 规定,“建设中国特色社会主义法治体系,必须坚持立法先行,发挥立法的引领和推动作用……”应当说,法律的预防功能不过是立法目的之一。现在探讨人工智能法律问题,主要是为了发挥其对人工智能的引领和推动作用,这属于立法先行的范畴,而非法律预防问题。毕竟,我国尚没有出台人工智能法律,谈何法律预防呢?立法先行是国外的普遍做法。以自动驾驶汽车为例,“在美国,自内华达州首次通过立法允许自动驾驶车辆运营后,许多州和地区先后修改、颁行相关法规,允许自动驾驶车辆运营。”〔80〕 彭文华:《自动驾驶车辆犯罪的注意义务》,《政治与法律》2018年第5期。 反观我国,立法滞后往往是常态。例如,京东自动驾驶配送机器人都上路了,相关法律还未见踪影。由此足见中央强调立法先行的重大意义。既然立法先行,那么对人工智能法律问题的研究更应尽早开展。

最后,对现在展望强人工智能时代存在误读。对于现在研究人工智能问题,上述观点认为犹如秦皇汉武展望醉酒驾驶机动车,言外之意为时过早。这显然存在误读。当前,强人工智能时代虽未到来,但人工智能的智能化概念是大家能切实感受的。同时,如前所述,人工智能产生意识和道德已经具有一定的科学基础。因此,现在展望强人工智能时代并非空穴来风。但是,世界上第一辆蒸汽驱动三轮机动车是1769年由法国人居纽制造出来的,距秦皇汉武时代1800多年,故秦皇汉武不可能有丝毫车辆机动化概念,他们连蒸汽机都闻所未闻,更遑论展望机动车时代!如果在1712年英国人纽科门首次发明靠机械做功的蒸汽机后,再展望机动车时代的到来,相信没有人会觉得不合理。在全自动驾驶系统业已到来的今天展望强人工智能时代,就如同蒸汽机发明后相关技术已经发展到相当程度展望机动车时代到来一样,是有其现实基础的,因而谈不上为时过早。

通过对我国航道的养护管理模式进行完善不仅可以使船舶通过的能力提高,并且对于防汛排涝的目的也有着一定的促进作用。另外,在当前新时期下对于航道管理模式的创新还可以使发展过程中的一些问题得到有效的解决,并且能够更好的推动我国水路运输整体水平的提高。

事实上,现在探讨人工智能及其犯罪主体资格,并不为时过早。其意义主要有三:一是旨在防患于未然,为后续的立法和司法实践之应对打下基础。在现实生活中,理论研究与立法滞后很容易导致发生新问题时陷入被动,深圳基因编译事件就是例证。〔81〕 2018年11月,两名基因编辑婴儿在中国诞生,她们的一个基因经过修改能天然抵抗艾滋病。这是世界首例免疫艾滋病的基因编辑婴儿,在国内外掀起轩然大波。事件发生后,广东省成立调查组,对该事件展开全面调查。不过,由于国家卫生健康委员会起草的《生物医学新技术临床应用管理条例(征求意见稿)》直到2019年2月26日才向社会征求意见,故如何处罚、以何为据无疑是个问题。 如前所述,立法若要发挥引领和推动作用,必须先行。而理论研究则应该在立法之前展开,为立法积累经验、打好基础。“这样的讨论应该提前发生,而不是在无人驾驶交通工具融入日常生活后再作广泛介绍。”〔82〕 Brendan Gogarty,Meredith Hagger,“The Laws of Man over Vehicles Unmanned: The Legal Response to Robotic Revolution on Sea,Land and Air,” Journal of Law,Information and Science,Vol.19 (2008),p.144. 二是界分人工智能与利害关系人责任的需要。当前,人工智能业已具有一定的自主性,若不对其加以归责,一旦实施违法犯罪行为将导致无法对利害关系人归责,或者导致利害关系人背黑锅。确定人工智能的法律地位,界分人工智能与利害关系人的责任,有利于保障制造商等的利益,激发他们的研发积极性,促进科技发展与进步。“这些立法决定必须迅速作出,这些决策作出得越早,对制造商生产出最符合法律的产品就越有利。”〔83〕 Jeffrey R.Zohn,“When Robots Attack: How Should the Law Handle Self-Driving Cars That Cause Damages”,University of Illinois Journal of Law,Technology & Policy,Vol.2015,No.2 (Fall 2015),p.484. 三是人工智能的独特性决定了有必要提前防范。人工智能远非基因编译可比。一旦强人工智能到来,会造成何种后果以及造成多大后果,均难预料。因此,适当提前防范实属必要。“虽然为这种不可知状态建立一套全面的人格架构可能为时过早,但考虑到非生物智能的不确定本性和出现时间,提前奠定基础至关重要。”〔84〕 Ryan Dowell,“Fundamental Protections for Non-Biological Intelligence or: How We Learn to Stop Worrying and Love Our Robot Brethren”,Minnesota Journal of Law,Science and Technology,Vol.19,No.1 (Winter 2018),p.326. 更何况,强人工智能时代真正到来后,不排除人工智能与人类之间爆发战争的可能性。“当这样的超人机器并不表现得比我们好时,那么人工和自然两个物种之间争夺地球霸主地位的冲突和斗争的节点最终将越来越紧迫。”〔85〕 Aleksandar Stevanovic,Zoran Pavlovic,“Concept,Criminal Legal Aspects of the Artificial Intelligence and Its Role in Crime Control”,Journal of Eastern-European Criminal Law,Vol.2018,No.2 (2018),p.43. 这样的情形若未来发生,将关系到人类的生死存亡,故更需要对人工智能进行提前防治。否则,一旦这一天来临,人类恐怕连防范的机会都没有。

(二)强人工智能时代与人工智能的犯罪主体资格

部分学者提出,强人工智能时代到来,探讨人工智能犯罪主体资格等问题毫无意义。例如,有学者认为:“强人工智能的整体智慧高于人类且又拥有自主意识、行动自如,那么这种比人类高一等级的物种届时还会接受今日法学家的方案吗?纵然今日设计了务必完美的框架,可那时人类将失去框定人工智能的资质,那时反倒是‘冥想式的法学研究’里充满着神奇的悖论,人工智能法学的愿景可能是一场空。”〔86〕 同前注〔77〕,刘艳红文。 有学者指出:“如果未来人工智能系统不受人类控制、自主进化,极可能不具备成立犯罪的主观条件,不能适用刑法规定的刑事责任和刑罚相关规定,赋予其犯罪主体地位与刑法体系的不协调,不应作为犯罪主体对待……”〔87〕 皮勇:《人工智能刑事法治的基本问题》,《比较法研究》2018 年第5期。 这里实质上提出了两个问题,分别是:其一,一旦人工智能在智识上等同于或者高于人类,那么人类就不再具有话语权,因为人工智能享有绝对主导权后,会不接受人类的法律规则,导致其成为一纸空文;其二,强人工智能极有可能不能适用刑法的罪刑规定,赋予其主体地位会导致与刑法体系不协调。

第一个问题是以较极端预设为前提的,即人工智能享有话语权或者统治权。这明显存在对强/超人工智能时代的误解。人工智能时代与人类的某某时代存在概念上的差异。通常,只要存在某种新的人工智能,尽管是个别化的,也可以说某某人工智能时代来临。例如,只要世界上出现一例强人工智能,就可以说强人工智能时代来临。这与人类社会某某时代以一定的民族、种群以及社会群体掌握话语权或者统治权为标志明显不同。因此,当出现一例或者几例强/超人工智能时,显然不能说它或者它们就掌控了地球或者话语权。此时,如果它或者它们实施了犯罪,人类是可以加以制裁的。当然,一旦人工智能在数量上和智识上远超人类,掌控地球或者掌握话语权是完全可能的。但问题在于,我们为什么要让人工智能掌控地球呢?显然,人类必须避免这样的情况发生。唯一办法就是在人工智能尚未形成群体优势时,利用包括刑法在内的法律规制有效防止,使之不至于失控。这恰恰说明我们现在研究人工智能的法律问题有必要,因为需要防范极端情况出现。

对于第二个问题也没有必要担心。人工智能是按照人类的智识样本设计出来的,无论是神经科学等运用于人工智能,还是人工智能形成意识、生成道德等,尽皆如此。因此,在刑法对罪刑之规定的基本面上,并不排斥适用于人工智能。当然,人工智能不同于人类,可能难以完全适用刑法规定,但这不会成为问题。以犯罪主观方面为例,自从自由意志论确立以来,犯罪主观方面在内涵上并非一成不变,如法人的犯罪主观方面就受制于“使法人受益”。未来即使刑法规定不修改,也可以通过赋予犯罪主观方面以新内容,完成对人工智能主观方面的认定。刑罚亦如此。对人适用的许多刑罚,确实不适用于人工智能,但这并不等于人工智能不可罚。至少,惩罚人工智能比惩罚法人更靠谱。法人是组织且无具体形态,惩罚法人的方式相对单一(罚金刑),且存在株连无辜之嫌。尽管如此,惩罚法人仍然有其现实意义。“企业既无躯体反制,也无灵魂可诅咒,这一古老的口号不应扼杀希望。这些特征的存在或不存在对制裁的发展几乎没有或根本没有合理的影响……当确实需要反制时,缺乏有知觉的身体和灵魂可以被视为对法人施加刑罚的理想状态。”〔88〕 Michael Jefferson,“Corporate Criminal Liability: The Problem of Sanctions”,Journal of Criminal Law,Vol.65,No.3 (June 2001),p.261. 人工智能是个体且有具体形态,对之惩罚不会殃及无辜,故惩罚人工智能较之惩罚法人更具有可行性。例如,可以判处人工智能死刑(如销毁等),但不能判处法人死刑(如注销等)。

六、结语

德国刑法学者魏根特等在2014年发表的一篇论文中反对人工智能成为刑罚主体。“尽管它能够学习并且作出其他人无法预知的决策,但它对于它自身的自由并未意识,更遑论将自己视为社会权利义务的承担者。”〔89〕 同前注〔54〕,萨比娜·格雷斯、托马斯·魏根特文,第222页。 但是,在2016年发表的一篇论文中,魏根特等却改变了自己的看法。“可以肯定的是,这些陈述是指我们在2016年知道的智能代理。然而,回顾近几十年来计算机科学所发生的迅速变化,未来的智能代理将获得使它们更像人类的素质和能力并非不可能。如果它们获得反省和类似于道德良知的能力,他们的人格问题就不得不重新考虑了。”〔90〕 Sabine Gless,Emily Silverman,Thomas Weigend,“If Robots Cause Harm,Who Is to Blame: Self -Driving Carsand Criminal Liability,” New Criminal Law Review,Vol.19,No.3 (Summer 2016),p.417. 其实,应该转变的又何止是看法,更主要的是观念。未来,只要人工智能可以形成意识和生成道德,能够被赋予犯罪主体资格,我们在观念上就应当欣然接受。

不同年龄、不同学历、不同职业都会影响被调查者对于“河长制”的认知程度。如专门从事负责“河长制”相关工作的政府人员与尚未成年的小学生两者之间的数据信息便存在较大出入;由于在当地的居住时长以及居住地与河湖水域的距离远近等因素,被调查者对附近水域的了解和关注程度也不尽相同。样本选取时已将不同地区、不同类型、不同规模、不同发达程度的城市,以及填写者具有不同年龄、不同职业、不同学历等因素考虑在内。

赋予人工智能犯罪主体资格必将对刑法人类中心主义造成挑战,但这并非首次。当法人成为犯罪主体时,就已经在某种程度上使刑法人类中心主义跌下神坛。以法人背后的代理人犯罪为由,只是勉强在形式上保住了刑法人类中心主义的尊严和面子。由于人工智能与法人差异巨大,若赋予其犯罪主体资格会对刑法人类中心主义造成彻底颠覆。如果说法人犯罪还可以让刑法人类中心主义“半遮面”的话,那么人工智能犯罪则完全使之“颜面无存”。因此,在理论以及立法上确立人工智能的犯罪主体资格,遭受的压力必然是空前的。“在需要对人工智能进行法律规制,需要将人工智能的创建和运行与将刑法规范作为规制其最重要的法律规范相协调的问题上,刑法似乎承受着最大压力。”〔91〕 Aleksandar Stevanovic,“Zoran Pavlovic,Concept,Criminal Legal Aspects of the Artificial Intelligence and Its Role in Crime Control”,Journal of Eastern-European Criminal Law,Vol.2018,No.2 (2018),p.43. 这样的压力有的是客观存在的,如如何区分人工智能的刑事责任能力类型、如何认定人工智能的共同犯罪以及如何实现量刑个别化,等等。有的压力则是人为的,对刑法而言不应成为压力。

“每个医生都拥有自己的数字证书和签章,可开具电子申请单和书写电子病历,各种信息都通过信息系统进行传递,并通过数字化病案管理系统实现了病案的电子化归档及管理,节省了工作时间,提高了工作效率。”

例如,有观点认为,“如果法学家连如何将违法行为归责为个人的问题都没有参透,却对人工智能是否拥有主体资格的问题喋喋不休,这不是在浪费学术资源又是什么?”〔92〕 同前注〔77〕,刘艳红文。 对此笔者想说明两点:其一,关于古典哲学家们将归责主体确定为人类的本质。如前所述,当初古典哲学家们为确立刑法人类中心主义而量身定做了自由意志论,其旨在解决人与人之间的矛盾和冲突。根据古典哲学家们的观点,人是因为有自由意志和道德理性才成为犯罪主体,不是因为自由意志和道德理性是人的才成为犯罪主体的必备要素。否则,自由意志论的理论基础就不是自然法理论,而是人类法理论。因此,犯罪主体的决定性要素是主体之自由意志和道德理性等心理特征而非物理特征。如果决定因素是主体之物理特征的话,就无法将大猩猩等动物排除在犯罪主体之外,因为它们跟人类一样也是有血有肉的生命体。既然强人工智能具备犯罪所需心理特征,就应当获得犯罪主体资格。其二,过于参透个人违法行为之归责可能不利于研究人工智能归责。参透个人违法行为之归责自然必要,但由于人工智能迥异于自然人,若参透个人归责过极乃至于被刑法人类中心主义蒙蔽双眼,就可能导致像德国难以接受法人犯罪一样而排斥对人工智能的归责,进而走向另一极端。

老福到前台检查了入住登记,把小宋的身份证住址抄了下来。服务员回忆说小宋住进这里三天了,只住了一夜就没再来,没退房,也没有人来找过她。老福叫服务员锁上房门,嘱咐他们不许任何人进去,并留下自己的电话号码,叫他们看见小宋立刻通知他。

人工智能法律领域是专业性和技术性极强的领域,极具复杂性与挑战性。从事人工智能法律问题研究,既需要克服相关资料不足的先天劣势,又需要补强极为专业的科技知识,其学术探索之旅殊为不易。正因如此,才需要理论界与科技界群策群力,将人工智能法律问题研究导向更广阔、更迷人的大洋彼岸。加拿大多伦多大学法学博士蕾切尔·查尼对以色列小野学院法学院哈勒维教授所著《当机器人杀人:刑法中的人工智能》〔93〕 See Gabriel Hallevy,“When Robots Kill: Artificial Intelligence Under Criminal Law”,Northeastern University Press,2013. 一书做出如下评价:“在这本书中,就我们现行的刑法框架内刑事责任能否适用于人工智能,哈勒维的理论提供了一个很好的对话起点。”〔94〕 Rachel Charney,“Can Androids Plead Automatism——A Review of When Robots Kill: Artificial Intelligence Under the Criminal Law by Gabriel Hallevy,” University of Toronto Faculty of Law Review,Vol.73,No.1 (Winter 2015),p.72. 在此,笔者将这句话稍作修改,送给那些在人工智能法律问题研究的坎坷道路上披荆斩棘的先驱者们,以示敬意:无论我们现行法律框架内的责任能否适用于人工智能,你们的理论提供了一个很好的对话起点!

*作者单位:上海政法学院刑事司法学院。

(责任编辑:于改之)

标签:;  ;  ;  ;  ;  ;  

自由意志、道德代理与智能代理-兼论人工智能犯罪主体资格之生成论文
下载Doc文档

猜你喜欢