在线论坛
2024.5.15
随着人工智能技术的飞速发展,我们的生活和工作方式正在经历着翻天覆地的变革。AI技术不仅开辟了前所未有的机遇和进步,也带来了一系列新的挑战和风险。在这个背景下,如何平衡AI带来的便利与其潜在问题,已成为全球共同关注的焦点。
为了深入探讨这一紧迫议题,5月15日,新加坡国立大学李光耀公共政策学院举办了一场名为“人工智能治理:全球视角下的政策与合作”的在线论坛。论坛汇集了来自不同领域的专家学者,他们分享了自己的见解和策略,为全球AI治理提供了宝贵的思路和方向。本次论坛促进了国际间的合作与共识,确保人工智能技术能够持续为社会带来积极的影响。
论坛嘉宾
新加坡资讯通信媒体发展局国际合作与战略伙伴关系司(中国司)主任
蚂蚁数科国际安全技术负责人及ZOLOZ首席技术官
Innowave Tech创始人
兼董事总经理
新加坡国立大学李光耀
公共政策学院副教授
侯昱鑫
主持人
在论坛一开始,主持人侯昱鑫提到,李光耀公共政策学院今年迎来成立20周年,作为公共政策教育的领导者,学院一直致力于汇聚各界优秀的思想,解决时代最紧迫的问题,推动社会的积极变革。为了庆祝这一重要里程碑,学院策划了一系列活动,其中本次线上论坛是中文媒体平台的首次活动。主持人认为,人工智能技术正在迅速发展并逐步融入生产、生活和学术研究等各个领域。最近,OpenAI发布了新的全媒介AI模型GPT-4o,该模型开创性地整合了文字、图片、声音和视频等多种媒介,并能够以人类可以理解的方式与人类共情,这些发展趋势前所未见。因此,人工智能治理成为公共政策领域的重要且深远的课题。
佘雯雁
佘雯雁首先以政府监管者的角度介绍了新加坡在人工智能(AI)治理领域采取了一种原则性的方法,旨在通过实际工具和包容性的国际合作来应对AI风险。自2019年推出首个国家AI战略以来,新加坡不断更新其AI政策,并于2023年12月更新了2.0版本以确保在推动AI发展的同时,也能妥善管理与之相关的风险。
佘雯雁在论坛上介绍,新加坡的目标是通过AI创新来推动经济和社会发展,同时提高公众的生活质量。然而,AI技术的快速发展也带来了新的挑战,如偏见、虚假信息、诈骗和网络攻击等。为了应对这些挑战,新加坡致力于构建一个可信的AI生态系统,以平衡AI带来的机遇与风险。
在AI治理方面,新加坡采取了多方合作的方式,与行业、学术界和其他国家共同推动AI治理规范的发展。新加坡的AI治理框架Model AI Governance Framework提供了一套全面的指导原则,旨在引导组织和企业实现负责任的AI实践。该框架不仅涵盖了AI伦理原则,还提供了风险管理和公司治理方面的实质性建议。
为了支持企业的AI应用,新加坡于2022年推出了AI Verify工具,这是一个开源的AI治理测试框架和软件工具包。AI Verify工具基于11个国际认可的AI伦理原则,包含超过90个过程审查和技术测试,主要评估AI的公平性、可解释性和稳健性。工具的开源性质意味着全球开发者可以在GitHub上下载并使用,同时可以在其基础上构建不同的插件以拓展功能,例如不同测试结果的显示,测试算法以及适用于具体垂直领域的测试或者插件。
新加坡还积极探索生成式AI(Generative AI)的治理,发布了专门的治理框架,并推出了测评沙箱(Evaluation Sandbox)和测评目录(LLM Evaluation Catalogue),以应对生成式AI带来的新问题。治理框架涵盖了9个关键维度,包括建立激励和问责制度、数据训练、可信开发和部署、事故报告、第三方测试、网络安全、内容来源、安全与对齐研发以及AI的公共受惠。
此外,新加坡通过Digital Trust Center推动AI安全和测试科学的发展,并积极参与国际合作等事宜,通过AI Verify Foundation平台与全球企业合作,促进负责任和可信的AI生态系统的建设。该基金会已有超过120名来自全球各地的会员,包括谷歌、微软、IBM等知名企业。
姚伟斌
姚伟斌深入探讨了人工智能(AI)在安全与治理方面的挑战与应对策略,他通过向观众分享科技安全与AI合规治理之间的联系,为理解AI技术的双面性提供了宝贵的视角。
姚伟斌首先强调了AI技术对日常生活的深刻影响,尤其是在提高效率和降低成本方面。以孟加拉bKash钱包的在线开户功能帮助孟加拉人们在一个月内成功开户200万人的案例,展示了AI在优化流程和提高效率方面的潜力。然而,他也指出了AI带来的新问题,如伪造和欺诈,特别是深度伪造技术(deepfake)的威胁,姚伟斌通过一个案例指出AI伪造技术在金融欺诈中的严重威胁:一家香港公司因深度伪造技术制作的虚假视频会议而遭受了高达2亿港币的巨额损失。这一事件凸显了AI伪造技术的真实性和复杂性,以及它如何助长了金融犯罪的猖獗。
为了应对这些挑战,蚂蚁数科开发了多层次的防护方案,包括图形图像层、APP层和系统层的保护措施。支付宝的交互式风控能力有效阻止了大量电信欺诈行为,展示了AI技术在安全防护方面的应用潜力。
这些真实发生在身边的事件令人咋舌,同时也吸引了大量观众的注意与讨论。姚伟斌建议公众提高对AI伪造技术的警惕性,并通过教育和学习来掌握辨别真伪的方法,如把手放在脸部进行遮挡,设置安全口令等。他提倡在AI框架中加入水印或内容溯源技术,以增强未来标准的制定和监管的实施效果。
最后,姚伟斌总结,AI技术在提高效率方面的巨大潜力,同时也面临着严峻的安全挑战。他呼吁人们需要更多的关注AI的安全及监管,以确保AI技术在安全和治理方面得到有效应用,并强调了合作与创新在推动AI健康发展中的重要性。
徐劲松
徐劲松在论坛上深入探讨了人工智能(AI)在工业智能领域的应用,并分享了Innowave Tech在这一领域的宝贵经验和独到见解。
徐劲松首先肯定了AI技术的快速发展,尤其是在深度学习和大语言模型方面,为工业领域带来了前所未有的机遇。AI不仅在认知能力上逐渐接近甚至在某些领域已经赶超人类,未来如果把感知能力与人工智能相结合,整个行业的发展将突发猛进。
通过整合多模态模型、传感器数据以及人的判断能力相结合,Innowave Tech开发了虚拟专家(AI Agent)技术。该技术通过实时数据采集、判断和执行,提高了生产效率和决策的准确性。虚拟专家的核心优势在于能够提供随时随地的专家级判断,尤其在先进制造业中,有效减少了延迟带来的损失。
徐劲松表达了AI在工业模型的质量必须是可信可靠的。他提到,工业环境中的判断错误可能导致巨大损失,因此追求近乎完美的判断至关重要。Innowave Tech通过AI技术实现了操作零失误,显著提升了产品质量和生产力,并通过数据保留与预测分析进一步优化了生产流程。
最后,徐劲松强调了协同合作在AI治理中的重要性。Innowave Tech与相关机构如IMDA及相关行业协会就指导原则和行业规范进行深度讨论,并通过与合作客户及合作单位的培训和教育以提升对AI的理解和应用能力。这些努力可以帮助企业更有效地利用AI技术,提高效率,减少风险。
徐劲松的分享不仅展示了Innowave Tech在工业智能领域的前沿探索,也畅想了AI技术在提升生产效率、优化决策和提升质量方面的潜力,同时呼吁加强合作与治理,确保AI技术在工业领域的安全可靠应用。
吴木銮
吴木銮教授从公共管理的角度出发,探讨了在易变性(Volatility)、不确定性(Uncertainty)、复杂性(Complexity)和模糊性(Ambiguity)所形成的VUCA时代中的人工智能(AI)治理问题。
在分享之前,吴教授对佘雯雁、姚伟斌、徐劲松三位嘉宾分享的内容进行了总结。
关于佘雯雁提到的新加坡的AI策略,吴教授认为是极具启发性的。在AI的治理中,新加坡不仅仅关注自身的快速发展,同时也寻求与国际社会的广泛合作与交流,并积极贡献新加坡经验。
对于姚伟斌分享的AI的双刃剑特性,吴教授总结道:一方面,AI技术为人类带来了巨大的潜力和机遇;另一方面,它也带来了诸如假信息泛滥等挑战。这些问题不仅影响了知识生产,也对信息传播造成了严重的影响。在知识的生产和传播过程中保持警惕,是当下和未来学者和业界人士应该考虑的重点。
徐劲松的演讲关注于AI在工业智能领域的应用,吴教授提道:人工智能与传统专家知识如何结合,以及如何确保技术用于促进社会利益而非造成伤害是非常值得关注的。
吴木銮教授指出,在VUCA时代,环境的快速变化和不确定性要求AI治理策略具备更高的灵活性和适应性。新冠疫情是这种复杂环境下的一个突出例子,而新加坡在平衡经济发展与疫情控制方面达到了一个平衡。在讨论易变性时,吴木銮教授强调了AI技术的快速发展,特别是生成式AI的兴起,要求政策制定者能够灵活调整政策。他提出,政策需要在促进技术创新与防范风险之间找到平衡点。
关于不确定性,吴木銮教授提到了国家在管理AI时面临的选择:是避免风险还是寻求风险与创新并重。他通过某些大学一开始发出的学生禁用ChatGPT为例,说明了过度担忧可能限制技术的积极应用,而正确的教育和引导可能带来更有益的结果。
在复杂性方面,吴木銮教授指出应重点关注现代社会各部门之间的相互联系,以及政策决策需要考虑的多方利益。例如早年农业社会是一个封闭、互不关联的社会;然而现在国家与国家,部门与部门之间都有着千丝万缕的联系,往往是牵一发而动全身。所以他特别强调了国际合作的重要性,认为通过合作可以促进AI技术的健康发展,同时确保其对社会有益。
最后,吴木銮教授讨论了模糊性问题,对于人工智能治理框架的法规在初期制定时应具有一定的灵活性,同时坚守伦理底线。对于法律法规的设定具有滞后性的特征,需要特别注意,政策制定者应该重视考虑如何应对这一问题。他建议法律框架应随着技术的发展不断更新,以应对新问题。
吴木銮教授总结认为,在VUCA时代,AI治理需要灵活性、平衡性和协作性。通过国际合作和经验分享,可以找到AI治理的最佳路径。他呼吁建立信任和合作的平台,共同制定伦理标准,推动AI技术的健康发展。这些措施将有助于在复杂多变的环境中,实现AI技术的安全、有效应用,为社会带来积极变革。
论坛主持人侯昱鑫在四位嘉宾分享结束后也提出了一个关键性问题:
“很多 AI 团队提到,在当前已经出现的问题还缺乏有效的政策手段解决时,新的、更复杂的问题就已不断涌现。我想请问各位,从监管者、开发者、应用者、研究者的角度来看,我们的监管理念是否能够满足AI治理的需求?我们需要怎样的监管框架、手段、逻辑、哲学来解决问题?在国家地区、公共领域和私人领域之间,以及不同利益相关方之间,应采用什么状态和关系进行合作?”
“从监管者的角度来看,AI领域的快速发展确实带来了治理上的挑战。新加坡采取了务实和平衡的方法,既鼓励AI负责任地使用和创新,也建立了防范潜在风险的保障措施。我们的AI治理工作主要分为三个方面:第一,利用现有法律和数据保护制度解决AI相关风险;第二,提供工具和框架,如AI verify工具,供企业自愿使用;第三则是确保跟上全球技术和治理的发展步伐。AI治理的政策和手段必须与时俱进,政府也需要不断的学习和调整。”
“首先,从企业角度看,AI 造成的无意和有意伤害都在增加,犯罪从线下转移到线上,并扩展到跨国。这需要国际间共同制定法律法规,否则无法与跨国犯罪集团竞争。其次,目前企业在应对AI带来的风险时,往往处于一种被动的状态。但是,我们是否可以转变思路,采取更为主动的措施呢?比如通过AI verified 的工具,来提高模型的可解释性、隐私保护和公平性。最后,随着AI技术的发展,伪造内容的生成变得越来越容易。为了应对这一挑战,我认为未来每个AIGC都可以有一个政府颁发的证书或签名。这包括视频会议和浏览器的内容验证。虽然这会增加一定的成本,但考虑到AICG内容的大规模上升,我们必须采取主动式的机制,去定义新的标准,去主动防范未来可能出现的问题。”
“从工业角度看,架构建立得非常严谨,可解释性基本上可以做到完全透明可解释。AI 带来的生产力大幅提升后,如何利用它改善人们的生活和工作环境依然存在疑虑。这需要企业、供应商和产品提供方之间不断交流合作,理解 AI 对企业带来的三方互赢局面。”
▲点击查看论坛回顾
LKYSPP
本次线上论坛不仅吸引了观众的广泛参与,并且在学术界、工业界以及政策制定领域都引发了热烈的讨论。参与者们对于如何在快速变化的技术环境中制定有效的人工智能治理策略表现出了浓厚的兴趣。由于篇幅所限,我们无法在本文中一一呈现所有精彩的观点和深入的讨论。
为了满足广大读者对于深入了解论坛内容的需求,我们将在第二篇文章中继续报道,届时将详细呈现嘉宾与观众之间的互动对话和交流亮点。
我们诚邀您继续关注我们的公众号,以获取即将发布的后续文章。在下一篇文章中,您将有机会深入了解专家们的前瞻性思考,通过这些深入的交流和讨论,您将获得宝贵的信息和启发,敬请期待!