全文1857字,阅读大约4分20秒。
近日,
韩国曝出“Deepfake”(深度伪造技术)事件,
被认为是采用新犯罪手段的
“N号房”案件重现。
多个关于“韩国AI深度伪造”的话题词
引发网友热议。
AI换脸的原理是什么?如何一眼识别换脸破绽,加以防范?
张博向记者详细展示了AI换脸过程和原理,“只需要输入一张正面静态图片,借助人工智能技术,便可以实时‘移花接木’。”
他进一步介绍,AI换脸的3大步骤原理:面部识别追踪、面部特征提取、面部变化融合。“整体的原理是通过计算机深度学习,精准识别人脸图像,然后提取眼睛,鼻子,嘴巴等重要的面部特征,然后把这些特征与目标人脸图像进行匹配,替换和融合。”
不要公布手持身份证或手持白纸照。这些照片中会包含个人姓名、身份证号码、住址等敏感信息,一旦泄露,不法分子可能利用这些信息进行身份盗用,办理信用卡、贷款等金融业务,甚至进行违法活动。另外,手持白纸或手持报纸等照片常被用于验证身份,如果被不法分子获取,可能被用于制作假证件或进行网络诈骗,会给个人带来经济损失和名誉损害。
不要发布各种票据类的照片。很多人出差、旅游都喜欢拍火车票或飞机登机牌,发到自己的朋友圈分享。这些票据上不仅会包含姓名、出发地、目的地等信息,而且在条纹码或者二维码中也会含有乘客的个人信息,存在被不法分子破解并窃取的可能。
不要晒家门钥匙、车牌等照片。不法者通过大数据等技术手段,通过这些照片会分析出发布者特定时间所处的特定位置,也会获取发布者相关的生活习惯。所以,最好的办法就是不要在照片中出现特征明显的物品,例如家门钥匙、车牌号码等。
重点推荐
来源:广州日报 版权归原作者所有,向原创致敬 《新闻夜航》热线:0451-82898289 编 辑:梅凯悦
主 编:王 莹
审 核:孙一奇
统 筹:马长庆
监 制:杨 凯
喜欢就分享 点👍加在看文章更好看↓↓
主 编:王 莹
审 核:孙一奇
统 筹:马长庆
监 制:杨 凯
喜欢就分享 点👍加在看文章更好看↓↓