反制AI作伪:博弈全面升级论文

反制AI作伪:博弈全面升级

文/沈臻懿 上海交通大学凯原法学院博士后

AI“深度伪造”利用了人工智能在大数据处理、言语识别、图像识别、深度学习等领域的巨大优势,对人的笔迹、语音、指纹、脸型等生物特征进行识别和学习,可高仿真度地伪造人们的笔迹、声音、形象等。面对如此高欺骗性、强伪装性,且难以监管的造假技术的出现,人们在忧虑的同时,不得不积极反思AI造假技术对国家安全、社会发展所带来的威胁以及如何予以防范。

AI“深度伪造”的典型手段

相较于传统的伪造手段,AI“深度伪造”在仿真度、欺骗性层面有了质的飞跃。美国国防部下属的国防高级研究计划局在评价AI“深度伪造”时,甚至认为其在一定程度上已经具备了高科技武器的性质。

▲书写笔迹的AI造假

签名,在社会生活中随处可见。长期以来,人们都将签名作为自己身份的证明。一旦某人签下自己的名字,即表明认可、同意。其在产生法律效力的同时,也赋予了签名文件的真实性。与此同时,无论是临摹、套摹、描摹、记忆模仿等常见方式,还是练习模仿等耗时较长的造假手段,各类模仿签名的造假方式即便手段众多,都很难堪称完美。

课堂教学主要分为两个层次,第一个是理解性层次,即对新知识的基础性掌握,这是每个学生都需要达到的层次。不得不引起重视的是,学生对新知识的掌握程度是不一致的,这将反应在他们的应用能力上。第二个是操练巩固层次,基于第一个层次带来的差距,操练巩固阶段的分层应兼顾横向分层和纵向分层,横向分层包括听、说、读、写等不同题型的训练,纵向分层则是在每类题型中设置不同难度层次的题目以适应A、B、C类学生的不同需要。习题的设置是对教师教学水平的一大考验,要避免两个极端。一是无用题,即对所有学生来说答案一目了然的题目;二是超纲题,一旦题目难度超出了A类生的发展区水平,在课堂上缺乏受众,也是毫无意义的。

然而,AI“深度伪造”的横空出世,直接秒杀了以往任何一种伪造笔迹的方式。英国伦敦大学学院的研究团队,近期研发出了一种全新的基于人工智能算法、能够模拟任何人书写笔迹的软件系统。该技术只需要掌握被模仿者的书写笔迹样本,即可以完美实现“深度制伪”。

不过,是否所有涉嫌虚假的内容,都需要进行审核“封杀”呢?答案显然是否定的,内容审核并不适用“一刀切”的原则。在众多由AI“深度伪造”形成的“制伪产物”中,有些仅仅只是娱乐,或是一些无厘头的笑话;但有的则会造成实质性的特殊伤害。为此,在对涉嫌造假的内容进行技术审核时,首选需要针对造假合成内容进行标记与分类。网络平台在进行技术审核时,若是发现虚假内容可能会对国家安全、公共安全、社会道德等方面造成负面影响的,甚至可能引发暴力事件或者危害社会稳定,应当对其进行标记,表明其“合成内容”身份,并将该内容强制下线。

▲语音言语的AI造假

客观来说,在“WaveNet”诞生之前,语音合成深度伪造已然存在。但利用那些方法合成的语音,要么听上去纯粹就是机器发出之声,要么就是缺乏抑扬顿挫的语音语调。不过,“WaveNet”在人工智能的支持下,已然将语音合成引入了“深度制伪”的层次。AI“深度伪造”时代的语音合成,采用了一种完全不同以往的新模式。其借助于神经网络系统,直接对原始音频的波形进行建模和输出。由于该深度伪造利用的是真人语音和相应的语音、语言特征来进行剪辑,并用来训练神经网络,因此通过AI“深度伪造”形成的合成语音,不仅能对任何人的声音进行模仿,且其“造假产物”听上去更为自然,与真人声音也更为吻合。试想一下,一旦AI“深度伪造”被滥用,人们以后再接起电话,听到话筒另一端传来的熟悉声音所说的事项时,我们会不会首先会怀疑该通话的真实性?

人工智能的崛起,可能将令“闻声识人”的传统界定不复存在。Google旗下的Deepmind公司研发出的一款名为“WaveNet”的系统软件,就完全颠覆了长期以来对于说话人语音识别的固有认识。说起Google旗下的Deepmind公司,人们或许稍显陌生。但只要一提到该公司的人工智能AlphaGo(阿尔法狗),相信绝大多数人都如雷贯耳。同样作为人工智能的产物,Deepmind公司研发的“WaveNet”系统软件,则是将AI技术移植到了语音合成造假之上。

所谓“闻声识人”,说的就是不用眼睛看,只需要听到对方的声音,就能判断出说话人是谁。当人们在经历变声期,步入成年后,声音可以长期保持相对的稳定性。虽然,从直观角度来说,说话人的语音并不像笔迹、人脸那样区别明显,但由于每个人在鼻腔、口腔以及声道等生理特性上的不同,其最终反映在语音上同样存在差异。

应对AI 造假的技术对策

1.加强语篇层面的研究。名物化不仅仅是词汇语法问题,更有丰富的语篇语义功能。王振华和石春煦[2]751指出,以往的研究大多侧重于在小句层面讨论名物化的词汇语法特征,对名物化在语篇层面的语义功能挖掘不够深入。他们尝试探索了名物化在语篇中的形成本质,认为名物化现象在语篇发生学上具有动态性,在实例化过程中形成专业化、合理化和人际化效果[2]760。名物化的形成动因是以往研究所忽视的重要问题,从大语篇层面探索答案是一条可行的新思路。

▲涉嫌虚假内容的技术审核

通常情况下,通过AI深度伪造形成的“制伪产物”,需要借助于一定媒介进行传播。在这些内容被广泛传播前,如果我们可以事先筑起一道大坝和筛网,对涉嫌虚假内容进行技术审核,将有助于大大降低AI“深度伪造”的潜在风险。

此外,在审核筛选的过程中,为了避免人为主观偏见对于筛选机制的影响,可采用“人+机”的协同审核方式。在专业人员审核的基础上,通过技术介入,尤其是专门检测算法的应用,来进一步判断和印证涉嫌虚假内容是否属于“深度制伪”的产物。

科学技术本身只是中性的,并无所谓善恶之分。但科学技术对人类社会的负责,则完全取决于人类的自身责任。正如当前AI“深度伪造”初露端倪,其研发的初衷可能与其背后的负面效应背道而驰,其潜在的滥用风险,必须加以前置性防范。

我们都知道,每个人书写的笔迹各不相同。这一特点,源自个体独有的书写动力习惯的差异。当笔迹承载在一定客体上后,个体的书写动力习惯会通过各类笔迹特征得以外在反映。因此,书写笔迹的AI“深度伪造”会对输入系统的样本文字的布局、字形、字体、运笔、笔痕等特征进行识别和深度学习,并在此基础上,从素材数据库中挑选出合适的笔画、字母,再进行布局、连笔等方面的处理,最终模拟塑造出毫无破绽的被模仿者的笔迹。当然,这一新技术的问世目前仅用于科学研究,一旦被错用、滥用,甚至恶意使用,其对于社会发展所带来的威胁将不容小觑。

设计方案的提交形式多样化,可以手绘,可以建模渲染,也可以写出自己的想法并加以图示,只要能够清晰表达自己的想法即可。设计方案的信息栏带有方案编号、设计师代号、引用对象等信息,打分栏供实验管理者写入统计得到的方案平均得分。方案张贴在实验场所的软木墙上供所有参与者观察和参考引用(如图2)。

▲数据信息的真实性甄别

随着AI“深度伪造”技术的日趋成熟与发达,使得“制伪产物”以假乱真的能力也日益翻新。基于人们自身的感官可能已经很难甄别这些数据信息的真实性,有研究人员根据“制伪产物”的特性,研发出了专门的深度制伪检测器。这一技术方法考虑到AI深度伪造目前对于那些极为细小、微妙的动作和特点,尚无法模仿,因此采用生物辅助识别的方式,通过专门算法来对数据信息中的细微动作进行追踪,并甄别出该数据信息的真伪。为保障数据信息的真实性,研究人员也开始探索防制伪的技术方法。其利用水印的原理,研发基于深度学习的防编辑水印技术。这要求该水印不仅需要嵌入并隐藏在某一数据信息之中,且无法被人为编辑。在对该数据信息进行检测时,则需要将防编辑水印进行技术输出,并甄别某一数据信息的真实性。

4)第3节钢筋绑扎完成后,检查验收合格后将第1套模板依次利用塔吊上翻、拼装、穿对拉螺杆、调整模板,模板加固验收合格后进行混凝土浇筑[2];

然而,“制伪产物”多通过互联网来进行扩散。互联网的特性决定了每一种深度制伪检测器的效用不会持续太久时间。为此,作为各网络平台来说,迫切需要大规模开发各类检测器并进行合作与技术共享。

就科技发展而言,无论是AI深度伪造,还是反制“造假术”的对抗技术,都在无时无刻不在发生变化。人工智能的发展,已然让这种对抗从人与人的对抗进化为了自动化与智能化的对抗。就此而言,AI深度伪造的发展与应对,也将长久地博弈下去。

标签:;  ;  ;  ;  

反制AI作伪:博弈全面升级论文
下载Doc文档

猜你喜欢