新加坡前总理李显龙,再一次展现了他对未来的预知能力。
早在2023年的12月29日,时任新加坡总理的李显龙就在自己的facebook上发布了一封警告信,让公众警惕deepfake对信息安全造成的威胁。
他在贴文中写道:“使用Deepfake(深伪)技术传播虚假信息的情况将继续增长。我们必须保持警惕,学会保护自己和亲人免受此类骗局的侵害,”
而就在今年八月,“韩国 换脸”这个词条冲上中国社交媒体热搜榜一!
韩国年轻人们正利用深伪技术,将身边的女性亲人或朋友的脸合成色情相片与视频,并通过通信软件进行广泛传播。
当时,这波深伪大案不仅在大学生和中学生中引起了恐慌,甚至还扩展到了军队、教师和护士等特定职业的女性。这些伪造的图频中,甚至使用了军队内部网络才能使用到的证件照,可能韩国军方人员都参与其中。
其中一个换脸聊天室竟吸引了22万人,一时之间所有韩国女性人人自危,全世界女性义愤填膺。因为魔爪不仅来自不怀好意的陌生人,更有可能来自和自己朝夕相处的亲人、朋友和同事。
本以为,这可能只是在韩国存在,没想到,这几天,这股风竟然吹到了新加坡......就在全世界都关注韩国如何善后,如何针对这丧心病狂的年轻群体性犯罪进行处罚和打击之际,万万没想到的是!在新加坡这个作为整个亚洲女性地位最高的国家之一,又有着对色情犯罪严苛的打击法规的国家,却竟然同样发现了“换脸”罪行!本周一(11月11日),一位新加坡体育学校的学生家长爆料称,自己女儿的照片竟然被同校的男同学利用深为技术移花接木,制作成了裸照。
新加坡体育学校是一所寄宿学校,每年只招收大概100多名学生,而就读的学生年龄介于13-18岁之间。这些男生们分工明确,一组制造照片,而另一组则通过群组聊天的方式进行传播!而受害者除了新加坡体育学校的女学生外,甚至连教师也成为了目标!新加坡体育学校深伪事件其实从今年6月份就已经开始,疑似受到了韩国深伪事件的影响,校方早就和警方合作侦查此事了;只是事件发酵到了11月才被校方发现并立刻采取了相关的应对措施。新加坡不愧是整个亚洲打击性犯罪最严苛的国家,校方直接动用了令人闻风丧胆的鞭刑!
是的!新加坡的学校是有权对顽劣的孩子进行鞭刑的!但这种鞭刑和监狱的鞭刑有很大区别:1、鞭子使用的是藤制,比监狱司法用刑的鞭子要轻细很多2、司法鞭刑最多24下,而学校的鞭刑一般介于1-3下,主要是小惩大戒a、私下鞭打:主要是在校务处或者校长办公室进行鞭打,在场除了校长或副校长以外,还会有一名老师作为见证人,有时候学生的家长也可能会被要求到场见证。c、公开鞭打:这是最屈辱的方式,地点一般是礼堂,让被体罚的学生上台,在全校师生面前公开对他进行鞭刑。根据报道显示,新加坡体育学校深伪事件中犯事的部分孩子接受的是私下鞭打,即在校务处或者校长办公室进行的秘密鞭打。但是,还是有人认为,新加坡体育学校实行的鞭刑还不够解气,应该公开鞭刑让所有学生都引以为戒。令人感到担忧的是,看似这只是新加坡某个学校发生的小范围事件,但实际上却带来了更多更难以的辨别的犯罪。让我们来回顾一下这波深伪色情案的风波始末,各位椰友或许便能明白,深伪技术已经成为我们未来生活中虎视眈眈的恶魔。
随着AI技术的崛起,深伪技术在诈骗方面的使用也变得越来越频繁,越来越真伪难辨。比如李显龙和黄循财,就曾多次被诈骗分子盯上,用他们的脸行诈骗之实。同样的深伪技术还被使用在色情照片和视频上,如今的AI已经可以通过读取人脸照片的细节,生成独特的数字人模型,这样就可以以模型人物为原型,制作出不同动作场景的色情诈骗。最受深伪技术之害的国际明星当属霉霉,之前由她人脸生成的一组色情照片,在网络广为流传。照片是她和一队身穿艳红色球衣的球员们,在休息室发生的种种,照片已经过模糊处理,但可以看到人脸部分的细节度非常逼真,且AI生成的图片几乎不受想象力的限制,任何场景、任何动作、任何角度都可以生成。这无疑给了那些具有色情幻想人士创造了一个肆无忌惮的乐土。而深伪技术不仅可以生成照片,如今也可以通过换脸的方式生成视频。通过读取目标人脸的特征,AI可以通过换脸的方式,将一个无辜女孩的脸,换到某位色情女明星的身体上,便能构成一段不堪入目的视频。不!远不要低估青少年对性的幻想与冲动,也不要低估了人性在欲望的驱使之下,会做出的恶魔行径。这是发生在2018年至2020年之间的韩国性剥削案件。作案者通过加密即时通讯软件Telegram建立多个聊天室,传播对女性进行性威胁得来的资料、相片、影片甚至进行直播。这些受害者被要求在身体上刻字、食粪饮尿、塞入虫子、侵犯年幼的亲属,甚至进行同步直播。
受害者被威胁如果不遵从,就会将她们的不雅照公之于众,这让这些弱势女性们不得不一而再再而三遭受威胁。
据称当时进行调查N号房事件的人因为长期接触这些视频以搜寻证据,心理上都出现了不同程度的损伤。N号房事件在当年沸沸扬扬,国际女性一致申讨韩国物化女性,对女性不尊重的丑恶文化。没想到时隔4年,风波再起,这次韩国爆发的深伪换脸事件,被称为N号房间2.0,其恶劣程度不亚于当年的1.0。因担心在韩国求助无门,来微博曝光韩国深伪换脸的韩国女性N号房1.0中传播的照片和视频都真实存在,犯罪者首先要通过深度接触受害者,获得不雅照片或视频,才能进而威胁到女性接受性剥削,犯罪成本相对较高。但2.0却完全不同,只要拥有受害者的一组清晰照片,便可以无限制地创造出无数不雅照片或视频,受害女性在毫不知情的情况下便已经被侵害!你认为这件事情仍然离你很远么?那看看这一组数据吧!2023年新加坡诈骗案件数量创下历史新高,报告案件超过了46000起,诈骗受害者一共损失6.518亿新币!Deepfake性勒索虽然是一种新现象,暂时的比例并不高,但已有逐步抬头的趋势。如果你觉得这类Deepfake的性勒索,仅存在于有过“某种不正当关系”的男女之间,那么就大错特错。只要你被有心之人拿走一段清晰正面视频,甚至多角度的个人照片,都有可能被深伪技术篡改成色情照片和视频,从而成为他人勒索你的要挟。之前,新加坡一名男子在约会应用上和一名女子联系一段时间后,对方要求他通过Telegram进行视频通话,之后该女子通过这段视频通话录制的内容,制作了不雅照片。照片上,这名新加坡男子赤裸着靠在另一个男子的裸体上。
该女子威胁新加坡男子,必须给自己的银行账户转1000新币,否则就会在各社交媒体上将这个照片分发给他的朋友们。而新加坡的新一波受害者,便是政府要员,他们因为经常在公开场合发表演讲,留下相当多的视频资料,因此是深伪勒索的最易受风险人群。
今年4月期间,新加坡议员集体遭受侵害,他们陆续收到了一份邮件,里面是将自己的形象经过深伪处理后的不雅视频,并附上了一封勒索信。收到信件的人包括杨厝港国会议员叶汉荣、外交部长维文 (Vivian Balakrishnan)、裕廊区议员陈吴明 (Tan Wu Ming) 和荷兰-武吉知马区议员爱德华·谢 (Edward Chia)等等。勒索信通过邮寄的方式直接发送到受害者的工作地点,照片上受害人和异性做出“亲密且不雅的姿态”。勒索者企图利用名人对自己名誉的珍视,和对政途前景的忧虑,让他们支付一大笔销毁照片或视频的费用。但显然新加坡议员没那么好忽悠,不仅在facebook上发布了收到勒索信件的贴文,更直接向警方报案捍卫自己的名誉和权益。同时为了警惕深伪技术伪造政要发言,从而影响下一届的大选,新加坡在10月15日开始通过了《选举(维护网络广告诚信)》法令。法令仅从颁布当天开始生效,直至投票日投票活动结束为止,主要是为了防止有心之人,利用深为技术篡改或者捏造候选人发言,从而在民众间引起不公正的舆论风险。法令中列明社交媒体平台业者若不遵守选举官发出的更正指示,可罚款最高100万新元,而法庭将决定每项控状的适当罚款额。其实在深伪色情案件频发的风波中,让人最感到心寒的就是,那些加害者传播的照片视频,不少都是生成于自己的姐妹、同学……甚至父母!他们往往受不健康的性启蒙影响,渴望乱伦、暴力、不正常的性刺激,因此在deepfake技术盛行的当下,将魔爪伸向了自己身边的熟人。真正防不胜防的有时候并非恶者的环伺,而是亲友的冷枪。
椰子提醒各位椰友,deepfake离我们已经并不遥远,或许在不久的未来,我们将经历一场全民“社交媒体分享行为”的大倒退;从人人发社交媒体分享个人生活,到人人自危,重归三十年前网络还不盛行的生活模式。
但在当下,为了尽可能杜绝深伪技术给我们造成的危害,请注意以下几点:
1、不要轻易将自己的照片、视频随意发布在公开的社交媒体上,如果要和朋友分享,请设置“朋友可见”,而非全网公开。2、不要轻易相信任何索要你视频、照片、个人信息的网站,只有在确保对方的安全之后才能提供。3、不要轻易相信陌生人索要照片、视频,甚至视频直播的请求,一个几分钟的视频通话就有可能让你成为受害者。4、一旦遇到深伪技术的侵害,请不要害怕立刻报警,纵容勒索行为就是纵容犯罪,更有可能让你陷入连环勒索的泥潭。