【策论】深度伪造让“AI”成为风险制造者

时事   2024-12-25 17:07   浙江  

随着人工智能(AI)技术的飞速发展,深度伪造(Deepfake)技术的广泛应用引发了全球范围内的广泛关注。深度伪造是一个合成词,是人工智能(AI)领域由“深度学习”(deep learning)和伪造(fake)合成的一个词汇。深度伪造是一种合成技术,利用深度学习来合成或操纵视频、音频、图片等,实现篡改、伪造和自动生成,产生高度逼真且难以甄别的效果。从制造虚假新闻到恶意伪造图像、视频和音频,人工智能“造假”正成为智能时代传播领域的新风险,对社会的稳定和公共秩序构成威胁。因此,引导和治理AI技术的发展成为智能时代的核心课题。

01.

深度伪造引发的信任危机




深度伪造技术通过人工智能算法,能够逼真地伪造人物的形象、声音,甚至行为。这些技术的初衷是推动影视娱乐、教育和商业广告领域的发展,但其广泛传播和滥用却导致了严重的社会风险。虚假的视频或音频可能通过社交媒体迅速传播,误导公众、煽动社会情绪。在这种情况下,传统的新闻媒体公信力面临严峻挑战,公众对事实的判断能力也因大量虚假信息的干扰而下降。此外,这种信任危机不仅局限于媒体领域,还可能波及法律、教育和金融等多个行业,也是更威胁着国家总体安全。因此,深度伪造正在从一个技术工具转变为社会风险的重要来源。

02.

技术滥用背后的深层原因




深度伪造风险的背后不仅是技术的快速发展,更是对技术滥用的个体行为和社会环境的深刻反映。深度伪造之所以能够迅速流行并传播,主要有以下几个原因:

(一)人工智能技术的双刃性

任何技术都具有两面性,深度伪造技术也不例外。一方面,它在创造性产业中展现了巨大的潜力;另一方面,当技术落入别有用心者之手,便可能成为破坏社会稳定的利器。与传统伪造手段相比,深度伪造具有更低的成本、更高的精度和更广的传播渠道,这些特性加剧了风险的扩散。

(二)滥用技术的动机复杂性

深度伪造的滥用与人类行为密切相关。从个人层面来看,某些个体出于谋取利益、报复或娱乐心理而滥用技术;从组织层面来看,一些利益集团可能利用深度伪造进行恶意竞争或政治攻击。动机的复杂性也使得技术滥用问题更加难以界定和治理。

(三)法规与伦理的滞后性

此外,现阶段全球范围内针对AI深度伪造的法律法规尚未完善。一些国家缺乏明确的监管框架,导致技术滥用者可以轻易逃脱法律制裁。同时,公众对深度伪造的识别能力有限,也使得伦理和教育层面的防范工作滞后。

03.

完善AI治理体系的路径




面对深度伪造引发的信任危机,我们需要从技术与社会两方面入手,构建完善的AI治理体系,以实现AI的健康发展。

(一)技术防范:提升伪造识别能力

推动深度伪造检测技术的发展是应对风险的重要措施。科研机构和技术公司应加强合作,开发更先进的算法,能够迅速准确地检测伪造内容。此外,将深度伪造识别技术嵌入社交媒体平台和新闻发布系统,可以在内容传播前进行过滤,减少虚假信息的扩散。

(二)监管措施:完善法律与政策

各国应加快制定和完善针对深度伪造的法律法规。具体包括:明确技术滥用的法律责任,加大对违规行为的处罚力度;设立深度伪造的行业标准,规范技术的开发与应用。同时,国际社会应加强合作,在尊重各国政策法规和文化差异的基础上,共同制定AI治理的全球规则,确保技术的有序发展。

(三)社会建设:提升公众媒介素养

公众是AI深度伪造风险的直接受众,其媒介素养对风险防控至关重要。政府、媒体和教育机构应加强对公众的教育,通过普及深度伪造相关知识,提高公众对虚假信息的识别能力。此外,新闻媒体应提升自身的公信力,建立基于真实性和透明度的传播机制。

(四)多方参与:构建协同治理机制

应基于广泛参与、协商一致的原则,构建政府、企业、科研机构和公众共同参与的AI治理机制。例如,政府可以为技术研发提供政策支持,企业可以加强技术应用的自律,科研机构可以专注于风险评估与防范技术的开发,公众则可以通过监督和举报共同维护健康的社会环境。

责任编辑:毛岩

文中观点仅代表作者个人观点,

不代表本平台立场。

尊重原创,转载请后台联系。


启真阁
浙江大学暨浙江省公共政策研究院政策建议发声平台。高端智库链接社会,科学建议服务决策。
 最新文章