人工智能的社会治理:构建公众从“被负责任”到“负责任”的理论通道论文

人工智能与社会治理

编者按:当一项新技术变得越来越容易获取,人们就会越来越关注它可能带来的风险和危害,技术发展与社会治理 (包括政策、法律、伦理等)的相关话题就会变得日益重要,需要被持续不断地讨论下去。本期专题笔谈摘登五位学者在人工智能的社会治理方面的最新观点。

关键词: 人工智能;社会治理;新技术;伦理

人工智能的社会治理:构建公众从 “被负责任”到 “负责任”的理论通道

1 人工智能:社会治理的新议题及新挑战

人工智能技术的发展正在重塑社会现实,带来社会治理领域的新变革。人工智能既是社会治理的工具,又是社会治理的对象。新技术的发展必然带来新的社会议题,人工智能技术及其广泛应用将带来新的社会治理、法律规范及伦理规约问题。就业对国民经济的发展至关重要,然而随着人工智能对人类就业替代趋势的强化, “机器换人”已经上演,劳动密集型产业中的劳动工人面临失业问题,这是体力劳动的技术性失业;也有不少学者把目光投向智力劳动的技术性失业,给出各种各样的职业被人工智能替代的时间表。如何与人工智能争夺人类最根本的活动——劳动的权力,以及寻找新的就业增长点,是一个不可回避的社会治理问题。

建立和完善河长制工作的监督、评价和问责制度,拓宽公众参与渠道,营造良好的社会氛围,实现对区域范围内河湖的有效保护。

人工智能同样给立法带来不少新议题,社会治理的一个重要原则是 “公众参与”,问题是到底如何界定 “公众”?比如智能机器是一个社会成员吗?具有法律意义上的社会主体地位吗?智能机器需要纳税吗?在讨论人工智能与社会治理时这些问题都不可回避。而现在讨论最热的责任问题,也是这个问题的衍生。例如,如何划定自动驾驶汽车在交通事故中的责任,2018年6月,英国颁布了 “2018英国自动电子汽车法案”,成为世界上第一个规范自动驾驶汽车安全性的法律。但是关于自动系统与自主性机器的行为后果,仍然没有一个公认的标准来评判。

尽管翻译行业已经有了日新月异的变化,但中国相关的质量要求实施了接近十年,至今未作改变。又鉴于中美在翻译质量控制方面存在明显差异,本文将对两国笔译行业标准中涉及质量控制的项目流程和质量要求进行比较,借鉴较为成熟且先进的美国经验,将其运用于我国笔译项目的质量控制环节,并为我国翻译质量要求的重新制定带来启发,促进我国笔译项目质量标准的与时俱进。

何为 “负责任”的人工智能战略?我们认为,负责任的战略是规划与规范、主导与适应的统一。负责任是目前规范技术社会影响的最主要原则,直接决定人工智能的社会影响[1]。使用负责任战略来规范人工智能与人工智能的行业规范、社会规范是一致的,并且是不能产生偏差的。人工智能的技术后果不只是完全受控的[2],更是社会成员对于其他成员行为的适应与互动,因为战略所展现的协调作用也是必要的。负责任战略本身就是对于角色定位与责任划分的规定,直接构成人工智能规范的一部分。目前关于人与人工智能的道德能力与主体地位有较大分歧[3],此时制定人工智能战略是对学术争论的重新梳理与操作化。

(2)产业界。在一定意义上,人工智能产业是实现战略的终端,也是检验战略效果的晴雨表。产业界更为关注战略内容的操作性与指标化,同时也是规范条款的主要针对人群。例如, 《新一代人工智能治理原则》指出, “通过持续提高技术水平、改善管理方式,在数据获取、算法设计、技术开发、产品研发和应用过程中消除偏见和歧视”,这就是对设计者、生产者的要求;日本 《下一代人工智能战略》要求2020年之前确立无人工厂和无人农场技术,普及新药研制的人工智能支持,实现生产设备故障的人工智能预测,也是对于人工智能产业研发领域的指导。

2 社会公众应当成为 “负责任人工智能”的主要参与者

(1)政策制定者。目前人工智能发展战略最主要的指导对象是政策制定者,因为政策制定者既不是直接的人工智能从业者或研究者,也不是主要的利益相关方。政策制定者的非专业性和中立性使得其尤为关注战略规划,以及参与战略规划。例如, 《新一代人工智能治理原则》指出, “应促进协调发展,推动各行各业转型升级,缩小区域差距”,就是对于各级政府的指导意见;美国 《维护美国人工智能领导力的行政命令》要求联邦政府机构投入更多资源和资金到人工智能发展中,是白宫对于联邦政府部门的指导。

人工智能也带来新的伦理问题。首先,作为一种技术手段,人工智能对于个人数据的采集与使用,对隐私是一个极大的挑战,并且对于智能时代的技术红利如何在不同人群中分配也是一个重要的公平问题。上面提到的责任问题也是一个伦理问题,人工智能能否成为人类不为自己行为负责的下一个借口,也是有待继续观察的。其次,从智能技术物本身来看,其是否具有道德上的地位与权利,也是目前学术讨论的热点,从这个问题衍生出来的人机关系问题、机器权利问题等都是社会治理关注的内容。

最后,我想说孩子的教育不只是学校的事情,其实最最重要的教育不是学校教育,而是家庭教育。只有我们家校合育才能培养出越来越棒的孩子们。

当今社会人工智能发展进入全新阶段,各国人工智能发展的战略更新速度加快,而 “负责任”是科技战略,尤其是人工智能战略中的高频词汇,人工智能政策制定者往往把负责任放在首位。2019年5月OECD成员国签署 《政府间人工智能推荐性原则和建议》,呼吁发展负责任的人工智能;2019年6月国家新一代人工智能治理专业委员会发布 《新一代人工智能治理原则——发展负责任的人工智能》,把共担责任作为一条重要原则。可以看出,在人工智能战略部署中,负责任发展已经是必要组成部分。

在访谈中了解到,大部分学生认为选修课的设置范围也只是在教育学学科周边,并没有真正做到选修。选修课的目的在于扩大学生的知识外延度,发展学生的特长。如果在选择上受到了压缩,那么兴趣也会随之下降。

从国家治理现代化角度来看,人工智能是实现社会治理现代化的手段。“十九大”提出社会治理要智能化,政务云平台、大数据决策、智慧城市等都是治理智能化的表现,基层治理也开始应用智能设备与大数据来加强公众沟通,克服决策不确定性。作为治理手段,人工智能也带来了新问题,具体表现为智能风险、智能偏见、智能失权等。智能风险是指人工智能技术本身存在不确定性,存在失序、失灵、失控的技术风险,当决策、行动、评估行为都围绕其展开时,会出现系统性风险。智能偏见是指我们迷信人工智能带来的决策结果,这是一种智能时代版本的机械论,面对社会现实的不确定,目前弱人工智能只能起到治理辅助作用。智能失权是指失去话语权与劳动权,治理过程交给人工智能,会使得在技术知识储备上处于弱势地位的普通民众更加没有参与治理的积极性与能力。

上述这些都是对科研人员的科研工作提出要求,在科学理论层面对科研人员进行指导。除了这三类典型指导对象外,还有一种指导对象,其占据着社会的绝大多数,但是在战略中失权、失语。更重要的是没有具体行动指导,多数情况下只有笼统的只言片语涉及这类对象,这就是一般的社会参与者,也是智能社会主要构成者。如果没有人工智能战略重点关注和指导一般的社会参与者,那么整个社会从总体上看就是 “被负责任”状态。这既不是真正意义上让大众享受智能时代的红利,也不利于培养智能时代负责任的社会公众。因此,应当完善现有人工智能治理框架,使其更关注一般社会参与者,从而构建起负责任的智能社会。

(3)科研人员。人工智能研究方向的规划,以及围绕人工智能展开的法律、伦理等问题的研究,也都是人工智能战略的指导内容。 《新一代人工智能治理原则》指出, “人工智能系统应不断提升透明性、可解释性、可靠性、可控性,逐步实现可审核、可监督、可追溯、可信赖”;美国科技政策办公室在 《为人工智能的未来做好准备》中指出,美国要在人工智能的各个研究领域中保持理论优势。

目前看来, “负责任”的概念主要是针对国家政府、区域组织以及其他传统意义上的行为体和利益相关者,可以总结为三类指导对象:

他把周围那一圈世界重新扫了一遍。这是一片叫人看了发愁的景象。到处都是模糊的天际线。小山全是那么低低的。没有树,没有灌木,没有草——什么都没有,只有一片辽阔可怕的荒野,迅速地使他两眼露出了恐惧神色。

3 构建 “负责任”的人工智能治理路径

(1)培育适应与接受的责任。人工智能发展战略应该指导一般社会参与者适应与接受智能社会的经济基础、技术基础与文化基础。智能经济是一种新形态的知识经济,共享与开放是其精神内核,需要引导社会参与者把共享与开放作为新的社会经济行动本质。专业知识与智能行为的分离,将要促成新的产业模式,所谓的技术性失业只是经济转型的一个随附现象,而如何加入新的经济共同体才是社会大众需要关注的内容。智能时代比以往的工业阶段更注重物质化的技术设备,尤其是个人化设备的完整性,超越以往任何一个产业时代。如何使用个人智能设备,不只是一个用户说明书的问题,更是达成社会同步、分享数字红利、提高知识生产率的社会问题,把握智能设备的逻辑是每个社会成员的责任。同时,智能时代有的不仅是新的智能文化兴起,更是对于传统的人文精神的反思。人类中心论以及其衍生的智能优越论与智能文化存在较大的冲突,并且人类道德共同体也在新的智能文化中被反思:文化包容性的边界在哪里?人工智能战略需要指导一般的社会参与者从自身出发,适应与接受社会其他成员对于人工智能的观点与互动方式,构建有共识基础、互动良好的人类命运共同体。2016年英国下议院科学与技术委员会发布的人工智能英国报告,要求每个人都要考虑人工智能可能给我们带来的技术风险与社会不良后果。我国在 《新一代人工智能治理原则》中要求提升弱势群体适应性,努力消除数字鸿沟。这些战略和政策建议不只是从社会环境方面基于大众发展支持,更重要的是提供了关键的信息:接受与适应也是每个个人的责任,这种责任的实现途径很重要的一个方面就是要转变思想、与时代接轨,但是具体如何实现这种责任以及应当设立哪些可操作性的条款,仍然需要我们进行持续探索。

(2)完成教育与转型的责任。如何促成个人对自我的教育以及使用社会提供的教育资源,是完成智能教育和职业转型的关键。人工智能的发展战略需要特别关注与机器协作的能力以及与智能环境的互动能力。与机器协作能力特指在协作中的自我建设,以及一般意义上职业机器化的常识。协作中的自我建设包括道德与法律知识的学习与运用,目前人工智能的立法与规范还主要是针对设计者,要求设计者在技术环节努力克服在使用中可能造成的法律、道德困境。但是对于已经投入到社会使用情景的智能机器,尤其是社会机器人,其与设计者、立法者的自主性联系已经非常薄弱,这主要是因为智能机器在行动中具有一定程度的自主性与意向性所决定的,所以如何在与机器的互动中认清基本的道德、法律责任划分,保持自我的道德感、不被与机器的互动影响与人的互动,是一个自我建设的责任。而更现实的问题是,机器在不断替代人类的劳动种类与岗位,个人转型在智能时代也需要思考与自我实现。自我转型与国家人工智能战略是相辅相成的,没有个人对于自己职业的规划与再教育的实现,就无法实现智能机器在产业中的变革性应用。在 《为人工智能的未来做好准备》中,美国提出教育和培养美国人在人工智能时代工作的能力,为的就是让民众适应智能时代的工作环境。我国 《新一代人工智能治理原则》提出,应促进包容发展,加强人工智能教育及科普; 《政府间人工智能推荐性原则和建议》也提出, “人工智能系统应该具有透明度并负责任地披露信息以保障人类与人工智能互动过程中的知情权,尤其是在理解和质疑人工智能自动化决策和结果方面”。可见,各国在战略层面已经把教育与职业作为人工智能的重要问题,但是如何在个人层面实现,无疑特别需要对大众进行指导。

(3)实现与机器共存的责任。维护经典的人类地位、对技术应用持悲观态度是常见的抗拒机器的现象。与机器共存不是否定人的价值与地位,也不是迷信与夸大技术物功能。与机器共存要解决的核心问题是构建一套兼容智能机器的社会规范体系,以便时刻可以考虑到机器对于人类社会的影响,以及人与机器的划界问题。这对于社会中的个人来说,也是重新评估自我生存环境的过程。各国已经开始布局智能机器深度参与的社会环境,例如,法国总理马卡龙2018年3月在法兰西学院的人工智能峰会上提出,要在法国和欧洲创建人工智能生态系统;日本政府在 《下一代人工智能战略》中计划,在第三阶段 (2030—)使护理机器人成为家族一员,实现出行自动化及无人驾驶普及。智能社会不仅需要对机器的社会化程度与社会性本质进行讨论,更需要关注人的再社会化问题,而人在智能社会中的再社会化的核心就是与机器在社会中共同行动。简单地排斥机器应用、唱衰人工智能的发展前景,并不有助于人类生存,在社会深度智能化的同时,个人首先需要转变思想,确立与机器共存的理念。

中国被视为人工智能领域中的领先国家,是构建全球人工智能伦理和治理的重要力量,是国际人工智能规则的重要制定者。智能革命是从心智到智能的革命,中国社会具有最多的人类心智样本与数据,一定意义上占有智能时代最丰富的物质生产资料。我们需要把这种物质上的丰富性转化成话语权与决策权,并秉承开放与共享的态度,惠及与我们所制定的规范相接轨的国家与地区,构建智能时代的人类命运共同体。中国特色的治理现代化模式正在为全球人工智能治理提供新的道路。习近平指出,“加强和创新社会治理,关键在体制创新,核心是人。”目前各国的人工智能治理模式关注的是少数人、核心利益既得者,没有把最普遍的人民群众作为出发点与指导对象。而我国的治理现代化模式把人作为首位,从社会中具体的人的角度出发,形成社会共识与有效的沟通、变革机制,这是人工智能时代的中国道路、中国方案。

参考文献:

[1]BRUNDAGE M.Articial intelligence and responsible innovation[M]//MÜLLER V C.Fundamental issues of articial intelligence.Switzerland:Springer International Publishing,2016.

[2]ASHRAFIAN H.Artificial intelligence and robot responsibilities:Innovating beyond rights[J].Science & engineering ethics,2015,21 (2):317-326.

[3]LIU H Y,ZAWIESKA K.From responsible robotics towards a human rights regime oriented to the challenges of robotics and artificial intelligence[J].Ethics & information technology,2017,11:1-13.

中图分类号: TP18

文献标识码: A

张成岗 清华大学社会科学学院教授、博士生导师

(基金项目:国家社科基金重大研究专项,项目编号18VDL05;北京市社科基金规划项目,项目编号15ZXB015)

标签:;  ;  ;  ;  ;  

人工智能的社会治理:构建公众从“被负责任”到“负责任”的理论通道论文
下载Doc文档

猜你喜欢