警惕!这种照片,不要随便发!

体娱   2024-11-30 18:31   江苏  

如今

不少人都喜欢在社交平台上

发布自己的照片,分享生活

但你知道吗?

通过所谓“AI换脸”技术

一张“人像照片”

一段近距离的人物视频

都有可能成为不法分子犯罪的

新手段和新工具

来看一个案例

前不久,深圳市民吴先生突然收到一个陌生手机号码发来的彩信,里面竟然是他和一名陌生女子在酒店房间内的不雅照片,对方威胁吴先生在几点之前要跟他联系、转钱。吴先生赶紧报警。


深圳警方梳理报案记录发现,全市有同样遭遇的不止吴先生一人,犯敲诈勒索方式都如出一辙。随着调查的深入,警方发现这是一个以王某为首的犯罪团伙,团伙内分工明确,有人负责修图,有人负责寻找作案目标,有人负责发短信打电话敲诈勒索。在掌握大量线索后,深圳警方展开统一收网行动,成功抓获以王某为首的10多名犯罪嫌疑人在犯罪嫌疑人的电脑里,警方发现了大量经过合成换脸后的不雅照片。


深圳市公安局坪山分局民警张威说,从嫌疑人电脑里面提取到相关证据,这些图片是嫌疑人从各种渠道收集的被害人图片信息,然后进行合成处理用来敲诈被害人



目前,王某等人已被检察机关提起公诉。案件正在进一步审理当中。

AI换脸的原理是什么?


中国网络空间安全协会人工智能安全治理专业委员会委员张博详细展示了AI换脸过程和原理:“只需要输入一张正面静态图片,借助人工智能技术,便可以‘移花接木’。”


AI换脸的3大步骤原理:面部识别追踪、面部特征提取、面部变化融合。“整体的原理是通过计算机深度学习,精准识别人脸图像,然后提取眼睛,鼻子,嘴巴等重要的面部特征,然后把这些特征与目标人脸图像进行匹配,替换和融合。”


如何识别AI换脸、变声?


如今“AI换脸”技术已经比较成熟,甚至能够实现视频通话的实时换脸。不过张博指出,只要稍加留心,“AI换脸”还是有明显破绽,“马脚”就在面部轮廓和光线


“如果接收到视频信息、视频通话,要仔细观察对方的面部轮廓是否存在异常的模糊,光线是否正常。”张博说道,“如果有必要的话,可以要求对方快速大幅度地抬头、点头,转头,然后来仔细观察这个过程当中,面部轮廓是否有异常模糊。”

中国移动信息安全与管理运行中心副经理王晓晴也表示,一方面,检查面部特征,观察表情和动作以及声音和口型匹配度;另一方面,要观察情绪和语境,核实信息来源,让对方用手遮住面部或进行其他面部动作判断画面是否连贯。


警惕!
这几种照片千万不要随便发


网络安全专家提示,AI换脸等违法行为的最关键原因是个人隐私信息的泄露。因此,我们在日常上网过程中,要尽量避免人脸、指纹等个人生物信息的过度公开和分享


◆ 不要公布手持身份证或手持白纸照

这些照片中会包含个人姓名、身份证号码、住址等敏感信息,一旦泄露,不法分子可能利用这些信息进行身份盗用,办理信用卡、贷款等金融业务,甚至进行违法活动。


另外,手持白纸或手持报纸等照片常被用于验证身份,如果被不法分子获取,可能被用于制作假证件或进行网络诈骗,会给个人带来经济损失和名誉损害。


◆ 不要发布各种票据类的照片

很多人出差、旅游都喜欢拍火车票或飞机登机牌,发到自己的朋友圈分享。这些票据上不仅会包含姓名、出发地、目的地等信息,而且在条纹码或者二维码中也会含有乘客的个人信息,存在被不法分子破解并窃取的可能。


◆ 不要晒家门钥匙、车牌等照片

不法者通过大数据等技术手段,通过这些照片会分析出发布者特定时间所处的特定位置,也会获取发布者相关的生活习惯。所以,最好的办法就是不要在照片中出现特征明显的物品,例如家门钥匙、车牌号码等。


保护个人隐私至关重要

赶紧提醒更多人吧!


来源 | 河南共青团、央视新闻、
广州日报、常州发布
编辑 | 蛋蛋
更多精彩内容
敬请关注“无锡电视”抖音号及视频号
搜索抖音号 wuxitv

无锡电视
无锡广播电视集团(台)电视中心官方账号。陪你看电视,关注百姓生活;和你看无锡,传递最新资讯;带你上电视,说出你的故事!
 最新文章