今年五月,《韩联社》消息称:首尔大学毕业生朴某和姜某从2021年7月至2024年4月,涉嫌利用Deepfake换脸合成色情照片和视频,并在通信软件Telegram上私密传播,受害女性多达61人,包括12名首尔大学学生。仅仅是朴某一人,便合成了大约400个色情视频和照片,两人共计发布了近1700条露骨的视频,而视频中的女性,大部分都是真正意义上的“普通人”,是在校园里擦肩而过的普通大学生,也是首尔街边步履匆匆的路人,或者是社交软件上某个分享了自己生活的女孩。
而朴某和姜某所用的“Deepfake”,即“深度造假技术”,是利用人工智能技术实现的“AI换脸”,可以轻而易举的做到将任意图片、或者视频中的人物换成另一个人的脸——且在AI技术的加持下,这种换脸模式的精细度极高、只会在某些片段中存在违和感,但普通人很难感受到这种差别。
然而朴某和姜某所为不过是韩国“Deepfake”的冰山一角,也是韩国社会中“女性安全危机”的冰山一角。
据某位韩国女性在微博等社交媒体的传播,以及《韩民族日报》、英国《卫报》等记者的调查,韩国即时通讯软件Telegram上存在一个有接近22.7万用户的聊天室,申请加入该频道后,系统会弹出一条提示消息,要求用户“上传一张你喜欢的女性照片”。在按提示上传一张 AI 生成的女性照片之后,五秒之内该频道就生成了相应的深度伪造裸体图像,甚至允许用户自定义所生成图像中的各个身体部位。该频道最多可免费生成两张深度伪造裸照,之后需要付费才能获取更多图片,一张照片售价为0.48美元或者650 韩元,如果邀请朋友加入频道也可以免费获得钻石。
目前,在聊天室里传播的女性不雅照,包括且不限于:世界范围内各国的女性明星、知名女性、学校老师、空姐/白领等各种职业的女性、某个人的上司或者下属、某个人的妹妹或姐姐、班上的女同学、未成年少女等等。
从社会需求到盈利结构,一条相当成熟的色情产业链背后,是22.7万韩国男性将无差别的所有(韩国)女性视为“性想象对象”的荒唐。22.7万聊天室中的男性,意味着在总人口五千万的韩国,这22.7万人可能是你身边的任何一个男性,是你的父亲、老师、或者哥哥弟弟,他们无差别的把目光投向了身边女性的身体。如果说韩国社会始终高居不下的性犯罪背后是一个人的恶,那么22.7万人构建起来的“意淫”和“凝视”,则是一种结构性的恶。
如果说N号房事件是韩国男性第一次大规模的结构性之恶的彰显,那么本称为N号房2.0的“Deepfake”事件,再一次让人们意识到了社会性别的差异,从来都不在于是否给予女性足够多的机会和足够平等的待遇,而是从最根本的身份认知上,男性就天然性的将女性视为“服务性”的“第二性”。
韩国女律师协会人权事务主任在“Deepfake”时指出,大部分人都认为制作这种极具危害性的深度伪造图像,其实只是无足轻重的小事,不过就是一张“裸照”——还是一张假的裸照,没什么大不了的。甚至在韩国,这种对“女性性侮辱”无所谓的态度已经发展为了一种网络内容类型。
☆“无所谓”背后的性别差异
私有化,是父权社会赋予的男性与女性的身份差异,女性从属于男性。同时,私有化也是男性凝视中最可怕的自我想象。
男性私有化女性的方式无非就是两种,其一是与建立婚恋关系,其二则是与其发生性关系。婚恋关系是契约,但性关系则更开放,更容易建立。也正是由于上述两重不同的私有化方式,进而让男性对女性演化出了「属于我」和「不属于我」这样两种简单的性的双重标准(sexual double standard:上野千鹤子)。对于“属于我”的女性,女性就成为了某种意义上的繁衍工具和家庭责任承担者,对于“不属于我”的女性,男性则会产生某种隐蔽的征服欲,即“想要让这个女性属于我”。
征服的方法是性,但“意淫”式的性征服,则是最简单的方式。
而这重逻辑背后还有一层更为复杂的社会枷锁,即女性个人的道德与贞洁观念。站在男性视角,借助AI制作出一张虚假的图片来满足某种“物化”和“征服”的扭曲欲望是“没什么大不了”的行为,甚至在整个男权社会的体系下,男性自己AI深度伪造了不雅照后也不会觉得“羞耻”或“愤怒”。因为父权社会建立在对生殖器的崇拜之上,展示某些隐私器官是炫耀而非不雅。但反过来,因为历来女性的性器官都被打上了“私有化”烙印,被刻上了一层道德枷锁,因此如若女性的躯体被公开展现,既是是虚假的,也会让女性在社会意义层面变成一个“失去了道德”的女性。纵使今日社会已然更加开放和多元化,但这重本质上的男性和女性对性羞耻不同的态度,让男性和女性在deepfake面前,面临着截然不同的境况。
在此逻辑下,deepfake还会演变成了“荡妇羞辱”,会衍生出男性对女性高高在上的侮辱和戏弄。因为只需要寥寥数语,几张p过的照片,一些根本没有依据的随口之言,就足以将一个女性的所有社会行为打上「错误」的标签,受到80%的传统社会的歧视——
☆不只是韩国
根植于“deepfake”的性别侮辱,从来都不是只发生在韩国。如果在X(twitter)上以中文输入AI换脸,弹出的也是类似于韩国deepfake的相关技术,大部分内容都明码标价,如某个明星AI换脸不雅视频的打包出售,抑或者是将某些AV中替换成指定的某个人——AI换脸早就已经无孔不入了,只是我们尚且活在一个被高墙保护的很好的网络世界中,还未嗅到危险和不安的气息。
再进一步往下,人工智能是赛博性犯罪的加速器,但赛博性犯罪,不过是人工智能伦理问题的冰山一角——作为一名女性,“deepfake”可能会加剧女性的不安全感和被凝视感,而作为性别之外的普通个体,“deepfake”则可能会带来无数“眼见也不一定为实”的荒谬时刻,让人们彻底失去对世界固有的信任。
社会信任危机,从未如此凸显。
设想:如果有人用AI发布了诸如特朗普等重要政治人物的讲话,而后借助这些讲话内容来引导舆论,呼吁大众,甚至煽动情绪和战争呢?如果有人用AI来伪造在线视频进行电信诈骗,专门去欺骗那些子女不在身边,对现代技术不甚了解的老年人呢?再试想,如果有人在某些真实拍摄的视频中故意漏出某些破绽,事后指责这条视频是AI生成的而后逍遥法外呢?
对AI,尤其是AI生成内容的约束,已经成为了世界性的新风险和新课题。但所有关于约束的讨论,都存在一条关键性困境,即到底是约束人,还是约束AI?
🪄 Lumos!lightening! 「400+秋日答题班(魔法部)」 言灵魔法正在启动 你会成为优秀的研究生
☆☆☆ Stay in the bubble 「新传考研名词解释(25修订版)」 上册:必背300词与答题应用方法 下册:900个新传考研关键知识点 🐼🐡 - First thought Best thought 「去更大的世界 做更有趣的人」 打工人酒醒时间:9:00-21:00