如果A片能换上任何人的脸

上礼拜国阵竞选宣言引起议论纷纷,不只因为内容。在网上可以下载的宣言文档中,第十七页有两张图,显示现在和未来的吉隆坡市景。眼尖民众注意到,图中好像少了点什么?第一张张图中,我们还可以看到国油双峰塔下半身的一点点,上面明显P掉了。第二张图中,可以清楚看到吉隆坡塔,但不见双峰塔。取而代之的是106交易塔。

像某国阵公关所说,这是无关紧要的美术问题。宣言内容才是重点!虽然如此,我刚在大西洋月刊里读到《假影片时代崛起》一文,讲到现在科技能像P图那样轻易修改影片中移动的内容,我就再次想起国阵宣言里消失的双峰塔。

宣言里那两张图片有99%可能是用Photoshop弄的。多亏有电脑,今天只要有少少技巧,P图只需几分钟,学生都可以做。

不过,修图比电脑古老得多。在十九世纪,人们为了艺术商业或政治目的,用墨水、油漆、双重曝光、拼接照片等方法修改照片内容。最显眼的一些例子是在政治宣传和修饰历史。例如在斯大林统治下的苏联和毛泽东时的中国,每当有共产党党员遭到清算,宣传单位就会确保这些人从官方照片和档案中消失,让他们不曾存在。这些人很多曾是斯大林毛泽东的战友,就像被视为双峰塔幕后主脑的马哈迪,也曾是纳吉所属巫统的领袖。但过去只是为了服务现在,一翻脸历史也得跟着改写。

我上面说到大西洋月刊中《假影片时代崛起》一文。文中提及,去年有人开发了软件,可以轻易把别人的脸「换」到影片中演员的身上。软件会分析当事人大量照片,制造出他的各种立体表情,然后移花接木到片中角色的脸上。不知情者看了,还以为当事人参与了影片演出。

这科技有可怕的应用。旧情人可以把女子的脸转接到A片里,然后放上网。这不是危言耸听,这款软件目前最受欢迎的应用就是把明星的脸转接到A片演员身上,来满足某些人的幻想。这种影片叫deepfake,名字源自软件中的深度学习(deep learning)演算法。虽然很多社交媒体禁止了这些影片,上网还是不难找到。因为效果惊人地自然真实,如果没人说,观众会以为明星真的参与了片中动作。

也不是全部人用这软件于不正当或色情用途。很多人用它纯为娱乐,如把政客的脸转接到电影角色身上。也有人研发怎样把这科技用在对的地方,如心理治疗时当事人可以在和医生的视频对话中隐去脸部,以维持隐私。不过,这些正当用途可以弥补这项科技可能带来的伤害吗?木已成舟,我们又怎样阻止人们滥用科技呢?

当然,修改影片内容不是新东西。电影向来有用特效,否则就没有《魔戒》那类电影了。但是特效需要昂贵器材软件和大量时间,拍摄要安装绿屏后制要请人。Deepfake的开发者则承诺,有普通电脑的人都能免费使用这款开源软件。想想一个痴汉把迷恋对象的脸接到A片里面。想想一个政治狂热份子可以修改录像,用WhatsApp散播经过修改的影片,说是现场拍摄。一旦这科技普及,我们不只要担心自己突然出现在别人的性爱影片中,我们也不再能轻易判断任何影片的真伪。

迄今为止,如果有政客否定指控,但有广泛流传的影片显示他犯罪,那多数人会相信影片。在多数人眼里,录像就是真相,可以击破任何谎言,因为我们知道:照片易改影片难改。但如果连修改影片内容也变得容易,不只政客的话不能相信,照片不能随便相信,录音不能随便相信,现在影片也难分真伪。除非人在现场,不然有谁能相信什么呢?

当自己所见的都不能完全相信,我们会更谨慎,怕那段网上流传的影片有少少可能是经过修饰,还是别分享或评论。对统治者来说,这种真相瓦解的时代真好。如果老百姓不再相信自己的眼睛,统治者就能肆意替我们决定什么真什么假。这官员召妓的影片是是假的!分享者要坐牢。那段显示反对党领袖犯罪的影片,政府发表过文告说是真的,大家放心登放心播放心分享!与其创造真相来对抗对自己不利的真相,不如让天下不存在真相,所有信息都有那么一点点可能是假新闻。