12月13日,联合国工业发展组织投资和技术促进办公室(UNIDO ITPO Beijing,China)与世界经济论坛全球杰出青年北京社区共同举办“科技创新与未来 人工智能治理研讨会”。研讨会邀请多方专家学者,共同探讨如何发挥各自优势,为完善AI治理体系贡献实践经验。
本次研讨会以“科技创续未来”为主题,与会专家详细探析和分享人工智能治理的理论与实践;从各自优势出发,积极贡献治理经验,形成政府规范引导、产业守正创新、社会监督理解的多元、包容、共治的体系。
联合国工业发展组织投资与促进办公室(中国·北京)气候与可持续专家姜灏开场致辞;世界经济论坛全球杰出青年北京社区原执委苏靖轩发表活动介绍致辞;ITPO Beiing China俞宸旻月出席会议。研讨会由世界经济论坛全球杰出青年北京社区丁田荣主持。
欧洲政策研究中心学术主任、欧盟委员会经济社会影响研究顾问委员会(ESIR)副主席 Andrea Renda教授;DataEthics智库创始人、欧盟委员会高级别人工智能专家组成员 GryHasselbalch博士;中国信通院人工智能研究所高级业务主管、AIIA 安全治理委员会治理组组长呼娜英;牛津大学研究员、人工智能治理研究中心总监Ben Garfinkel作主旨报告演讲。
中国国际科学技术合作协会秘书长孙丽杰、北京市金杜律师事务所合伙人吴涵、总台央视新闻频道科技部首席记者张春玲、OpenSDV汽车软件联盟生态副总监梁尧参与圆桌研讨。圆桌环节由中国信通院人工智能研究所高级业务主管、AIIA 安全治理委员会治理组组长呼娜英主持。
ITPO Beijing, China环境与气候议题专家姜灏强调AI技术在推动社会进步的同时,也带来了经济、治理和伦理挑战。他指出,商业力量是AI发展的“先行者”,通过市场需求和资本驱动加速技术进步;而监管则应成为“框架师”,通过规范引导和社会监督建立负责任的AI治理体系。姜灏表示,AI发展需要跨文化、跨领域的协作,让人类从技术进步中受益。
世界经济论坛全球杰出青年北京社区原执委、苏世民学者、白泽汇智CEO苏靖轩介绍了青年社区的宗旨与工作,并强调人工智能的发展不仅关乎技术,更涉及全球共同未来的社会议题。在此背景下,研讨会组委会邀请了来自研究机构、社会组织、企业、生态界及媒体的专家,共同探讨人工智能的未来发展路径。会议特别邀请了欧盟专家分享国际经验,旨在为人工智能治理实践提供对比与思考的视角,并发出中国声音。此次研讨会呼吁各方携手合作,以开放心态和审慎态度,面对挑战,确保人工智能技术在正确轨道上发展应用,推动普惠与可持续发展。
欧洲政策研究中心(CEPS)学术主任、欧盟委员会经济社会影响研究顾问委员会(ESIR)副主席、欧洲议会科技评估顾问委员会(STOA)顾问Andrea Renda教授详细介绍了欧盟在人工智能(AI)监管方面的实践与经验。Renda教授从欧盟《可信AI道德伦理指引》出发,深入解读了可信AI框架,并对关键决策点、AI负面清单以及《欧盟人工智能法案》(AIA)及其分级分类方法进行了详细分析。他强调,AI的信任必须基于法律合规和明确的伦理原则,确保其安全性。在阐述欧盟人工智能监管结构时,Renda教授结合企业、国家及区域层面的实践,全面分析了欧盟的治理模式。他呼吁在全球范围内平衡AI发展与风险,推动建立新的共识和全球标准,朝着全球共治的目标迈进。
DataEthics智库创始人、欧盟委员会高级别AI专家组成员Gry Hasselbalch博士讨论了欧盟在人工智能治理框架中“以人为本”的方法。她指出,“以人为本”是欧盟人工智能法案(AIA)的核心,并已成为全球AI监管的重要趋势。这一方法以伦理原则和法律为基础,确保人类价值在AI系统的开发、部署、使用和监控中处于核心地位。Hasselbalch博士提出的分析框架,涵盖了从个体到全球层面的多维治理问题,探讨了与可信赖AI和负责任AI相关的概念。她还介绍了评估“以人为本”AI实施程度的框架,重点关注价值观、法律和行业实践的差异。
中国信通院人工智能研究所高级业务主管、AIIA安全治理委员会治理组组长呼娜英分析了人工智能技术带来的多维度风险,包括模型风险、系统风险、伦理与法律风险,并强调了生成式AI的内生风险及其对社会的辐射影响。在全球AI安全治理态势方面,呼娜英介绍了各国政策法规的出台、国际合作的加强以及产业实践的探索。她强调了可信AI方法论和AI风险管理体系的重要性,包括可靠可控、透明可释、多元包容、隐私保护和明确责任等方面。呼娜英在报告中提出加强AI伦理审查、数据安全保护、技术标准化和研发创新等产业实践方案,并对未来AI安全治理的挑战与机遇提出了展望和建议。
人工智能治理研究中心总监、牛津大学Ben Garfinkel研究员探讨了通用人工智能模型评估在风险治理中的关键作用。他指出,开发者应通过“风险能力评估”和“对齐评估”识别AI模型潜在风险。同时,模型评估对于政策制定者理解风险、推动负责任的模型训练、部署及安全治理至关重要。Garfinkel还介绍了将模型评估纳入AI治理框架的方法,并提出了评估极端风险的相关工作与关键标准设计建议。
中国信通院人工智能研究所高级业务主管、AIIA安全治理委员会治理组组长呼娜英提出五大关键词:平台、哨兵、桥梁、推进器和守卫。她指出,政府及国际组织提供了人工智能治理的平台,邀请各方协同主体共同探讨如何发挥各自优势,贡献实践与经验。政策、法律、企业、行业组织、生态及公众等各方主体,将共同承担责任、协作探索,以“哨兵、桥梁、推进器和守卫”的角色,推动实现AI研发安全、AI风险可知可干预、以及AI福利普惠可持续的目标。