年初,Sora横空出世验证了Scalling Law在视频生成方面的有效性。但Sora始终止步于公开的60秒Demo,产品落地计划迟迟未公开。
随后的半年时间,不少玩家继续在AI视频生成赛道展开角逐。今年6月,快手发布视频生成大模型“可灵”。紧随其后,国外知名3D建模平台Luma AI也高调入局,并宣布对所有用户免费开放其文生视频模型,再掀波澜。近日,智谱AI也正式上线了AI视频生成功能清影(Ying),全面入局文生视频及图生视频赛道,生成6秒视频仅需30秒的时间。
人工智能技术的普及应用一方面为社会发展带来了巨大的技术红利,另一方面也带来了风险挑战。
哲学家海德格尔曾反思过现代技术的危险性,其认为现代技术强调效率,在这种效率观念的促逼下,人类反而被技术所控制和占有,成为了技术的奴隶,受到技术发展的支配。虽然当下加速了发展进程,但是盲目的发展最终会导致一系列的社会危机,这是人类不可忽视的问题。
AI繁荣表象下的安全隐忧
近年来,一些不法分子利用人工智能深度伪造新工具实施电信诈骗、散布虚假视频、激化社会矛盾,给安全领域带来了诸多风险。人工智能深度伪造是一种利用人工智能技术合成、修改或替换图像、视频和音频内容的技术,可以将一个人的面部表情、言辞和动作应用到其他人的图像或视频上,使生成的内容看似原始内容。这项技术让假新闻和虚假信息更具迷惑性,严重威胁公众的信任和社会稳定。
此类安全产生的主要原因在于,技术发展速度过快而法律法规和伦理规范未能及时跟进。现有的法律框架往往难以适应人工智能的快速发展,导致监管滞后。
例如,AI自动驾驶汽车的责任认定问题,目前尚无明确的法律规定。当人工智能系统出现故障导致事故时,如何界定制造商、开发者和用户的责任,成为法律界亟待解决的难题。
同时,人工智能的决策机制和数据处理方式存在不透明性,可能导致偏见和歧视的扩散。例如,面部识别技术在执法中的应用可能带来隐私侵害和种族偏见的问题。经济基础决定上层建筑,上层建筑反作用于经济基础,当上层建筑为适合生产力发展的经济基础服务时,它就成为推动社会发展的进步力量;反之则成为阻碍社会发展的力量。当前的法律法规和伦理规范已经落后于人工智能技术发展水平,亟需改良进步。
受到发展水平、价值观念、文化差异和国家利益等多个因素的影响,各国推动的治理框架和解决方案通常在防范风险、公平公正、隐私保护和国家安全等方面有不同关切,而人工智能的发展趋势和特征却要求在全球治理方面构建更加包容的框架。
因此,在当前形势下,在推动全球人工智能治理框架、标准和规范形成广泛共识方面,仍存在诸多挑战与难题。
首先,人工智能技术本身的复杂性和快速发展使得全球治理更加困难。人工智能技术涉及深度学习、自然语言处理、计算机视觉等多个领域,每个领域都有其独特的技术挑战和应用场景,治理的复杂性大大增加,并且人工智能技术更新速度快,传统的立法和监管手段难以跟上技术进步的步伐。即使制定了相关政策和法规,也可能很快变得过时,需要不断更新和调整。随着人工智能应用的广泛普及,数据隐私、不公平与歧视性,以及国家安全等风险日益彰显。人工智能技术及其引发的全局性、系统性和国际性风险将成为全球治理合作面临的挑战之一。
其次,人工智能技术的发展涉及巨大的经济利益,各国之间在技术研发、市场份额和产业布局方面存在激烈竞争。一些国家和科技公司在人工智能领域占据领先地位,不愿意在国际治理框架中受到限制,担心影响自身的竞争优势;人工智能技术的应用涉及广泛的商业利益,各国可能会为了保护本国企业的市场份额而抵制统一的国际规范;不同国家在产业政策上也会有不同的侧重点,一些国家可能会更倾向于保护本国的人工智能产业,制定有利于自身发展的政策,而不是参与全球性的治理框架。
第三,主体多元将成为制约全球人工智能治理的因素。当前人工智能治理仍以政府为主导,主要表现为中国、欧盟、美国等制定和发布了一系列人工智能治理倡议、规划和立法。然而,私营部门在人工智能技术发展中也发挥着不可忽视的作用,谋求人工智能规则的话语权可以增强其影响力。多利益攸关方以自身利益为中心,可能导致人工智能治理主导权和规则制定权的多方博弈甚至恶性竞争。倘若如此,将严重损害各方在人工智能全球治理上的合作动能。
第四,人工智能技术的发展依赖于大量数据的收集和共享,但数据隐私和安全问题却成为全球治理的重要难题。许多国家对本国数据的控制权有很强的保护意识,不愿意轻易共享数据。而且各国对数据隐私保护的标准和要求不同,一些国家可能对数据的跨境流动设置严格的限制。
第五,少数科技巨头公司在人工智能技术和市场上占据主导地位,导致全球治理面临技术垄断和不平等问题。大型科技公司在人工智能技术研发和应用方面占据主导地位,拥有巨大的经济和政治影响力,可能会影响政策的制定和执行。
人工智能技术的发展还可能加剧全球范围内的经济不平等,发展中国家在技术和资源方面处于劣势,难以在全球治理中发挥有效作用。
面对人工智能全球治理的多重挑战和现实困境,中国提出推动构建人类命运共同体为愿景的解决方案。在7月举行的2024世界人工智能大会暨人工智能全球治理高级别会议上,清华大学苏世民书院院长、清华大学人工智能国际治理研究院院长薛澜曾表示,从全球角度来讲,人工智能发展面临着很多挑战。
要把AI发展和安全作为“一体两翼”,通过多途径建立国际交流及防控体系,加强政府间的多边对话机制,同时通过科学共同体力量助力国际机制全面完善。
同时发挥联合国等国际组织的综合全面协调作用,打破各种壁垒,加强国际合作协议,同时在产业、科学界共同努力下推动人工智能合理、健康发展,为人类和平与发展作出更大的贡献。
图灵奖得主、中国科学院院士、清华大学交叉信息研究院院长姚期智表示,人工智能最有深度、最有意思的风险来自AI生存或者存在的风险。要控制好AI,但又不能破坏它,“正如图灵所说,这是无法预测的,预测不了机器有了足够算力之后会做什么。”
因此,AI风险需要专家来解决,不仅是科学家,还可能需要政府、律师、经济学家来参与,几乎涉及到每一个行业。
上海人工智能实验室主任、衔远科技创始人周伯文认为,目前,世界上只有1%的资源投入在对齐或者安全考量上,对AI安全的投入远落后于AI性能的投入。人类将遵循“AI-45°平衡律”,沿着可信AGI的“因果之梯”拾级而上,探索人工智能系统安全和能力的系统性平衡之路。
道阻且长,行则将至
全球人工智能治理倡导“以人为本、智能向善、造福人类”的原则,这既代表了人工智能发展的主线,也代表了治理的宗旨。
7月24日,中国人工智能产业发展联盟(简称“AIIA”)安全治理委员会成果发布会举行。会上,AIIA秘书长、中国信息通信研究院院长余晓晖表示,开展人工智能安全治理工作不仅是我国推动人工智能发展和安全的重要工作,也是全人类共同需要对待的重大问题。如何释放出人工智能最大向善的能力,造福于人类,促进经济社会发展,需要世界各国共同推动。
AIIA安全治理委员会主任委员、公安部信息安全等级保护评估中心原副主任、研究员毕马宁表示,过去一年,大模型发展速度之快,赋能范围之广,让业界看到了通用人工智能的实现路径与曙光,但人工智能安全问题的严重性与紧迫性不容忽视。在从不同层面审视人工智能安全问题时,可以发现人工智能所带来的安全挑战已经从技术本身所带来的数据、算力、系统等传统安全问题,逐渐向对个人、组织、国家社会、人类生态的衍生安全问题蔓延。
AIIA总体组组长、中国信通院人工智能研究所所长魏凯表示,世界各国都对人工智能的发展表示出非常大的期待,不论是发达国家或者发展中国家,普遍认为人工智能是一个巨大的机遇,同时也对人工智能的确定性安全和风险挑战表示担忧。
多年来,中国信通院作为国家智库产业平台,不仅联合各方在中国人工智能产业发展联盟下成立了安全委员会,搭建人工智能安全方面交流合作平台,同时联合产业界发布了《人工智能治理框架》,提出以风险为导向的人工智能研判理论体系,并发布一系列人工智能安全合规方面的标准规范,协助企业提升安全能力。
围绕大模型安全,中国信通院还启动大模型安全基准测试,为国内企业开展大模型安全防范工作提供参考。此外,与国际组织各国就人工智能的安全治理工作开展双边、多边的讨论交流,共同推动人工智能在全球的发展和安全的治理工作。
目前,全球针对人工智能安全已有很多声明和请愿,但更重要的是要明确目标、投入资源、采取行动,携手结伴共同应对风险。各国和地区针对人工智能治理正从原则治理走向安全实践的新阶段。
治理框架方面,各国和地区基本形成本土治理方案。比如美国推出《人工智能风险管理框架》推动基于风险的治理实践。欧盟《人工智能法》构建了风险分级的治理方案,并即将正式生效。
新加坡在原先治理框架基础上推出了《生成式人工智能治理模型框架》,提出人工智能评估需考虑的九个维度。日本发布《人工智能运营商指南》,为开发者、提供者、使用者制定行为准则。我国从《互联网信息服务算法推荐管理规定》到《生成式人工智能服务管理暂行办法》精准化治理前沿技术。
治理工具方面,全球积极推出安全测试评估平台。美国成立人工智能安全研究所和安全联盟以推动制定人工智能安全标准和开展安全评测,并于近期启动“评估人工智能的风险和影响”计划。英国人工智能安全研究所推出“Inspect”人工智能模型安全评估平台。新加坡依托“AI Verify”发布软件工具包,推动新技术的沙箱测试。我国已有近140个大模型通过安全评估与备案,形成良好示范效应。
可以看出,安全已成为各国人工智能治理的核心关切,保障安全是人工智能技术创新发展的基石,也是推动人工智能产业可持续发展的重要前提。
相关阅读
【科技云报道原创】
转载请注明“科技云报道”并附本文链接