比利时鲁汶人工智能监管研学小记

文摘   2024-08-09 23:10   上海  

最近受比利时天主教鲁汶大学(KU Leuven)邀请,参加了一个AI 监管的研学项目。这个项目请了十几位来自欧洲的AI专家授课,组织小组交流,还参观一些在比利时的AI科研机构。参加活动的专家来自与AI相关的各行各业,有爱尔兰议会的议员,欧盟委员会的官员、法官、律师、法务,AI工程师和深度学习科学家,科技企业公共政策和政府关系专家,也有人权NGO、经济学家、记者、哲学家、外交官和军人。这次经历让我对欧洲在半导体和AI领域的情况有了一些新的认识。以下是一些观察和记录:

欧洲在半导体领域的实力

谈到这个问题,第一反应会想到荷兰和ASML,但鲁汶之行让我对比利时在欧洲半导体格局中的地位有了全新认识。离布鲁塞尔半小时车程的鲁汶,是比利时一个有着独特历史文化的城市,早在中世纪就是著名的啤酒酿造中心,它同时还是一个科学城,因为拥有“校际微电子研究中心”(Interuniversity Microelectronics Centre, IMEC)和鲁汶大学。

IMEC成立于1984年,是一个聚焦新兴技术的科研非政府组织,拥有来自90多个国家5500多名研究人员。IMEC的微电子和纳米技术研究中心是全球数一数二的,在半导体材料、器件和制造方面很强,发明了不少突破性技术,比如在光刻材料、抗蚀剂、光刻工艺参数优化方面的研究,极大提高了EUV光刻的分辨率和良率,成了实现5纳米及更小工艺节点的关键。IMEC为ASML研发EUV光刻机提供了关键的技术支持和实验数据,双方构建了非常好的产研关系。可以说,没有IMEC就没有EUV光刻机。

上个月,ASML和IMEC刚官宣要共同成立专门研发最先进High NA EUV 光刻设备的实验室。除了ASML,苹果、三星和英特尔和IMEC也有密切科研合作关系。和IMEC的参会人员有短暂交流,据她介绍,IMEC和中国的联系也很密切,在上海有办公室,和中科院、华为、中芯国际都有合作,这让我想到IMEC能否给公司的芯片和人才提供帮助,但不好的消息是IMEC据说迫于美国压力在逐步限制和中国科研机构及企业的合作了。

另一个关键角色是有600年历史、有欧洲常春藤之称的鲁汶大学,16世纪时它是天主教反宗教改革运动的中心,在现代的名气则是因在微电子和纳米技术领域雄厚的科研实力。和IMEC同在鲁汶,近水楼台的区位优势,使它能使用IMEC的先进实验设施和研究资源,同时,鲁汶大学也给IMEC培养了很多优秀的工程师和科学家。

这解答了我曾经的一些疑问:为什么欧洲去年《芯片法案》的430亿欧元补贴,首期就给了IMEC25亿?实在是因为欧洲2纳米以下先进制程芯片能不能研发出来,就靠IMEC了,某种程度上决定着欧洲的半导体能否实现自主可控。今年4月份美欧技术理事会选择在鲁汶这个小城开,而且雷蒙多还在维斯塔格等欧盟委员会几个主要委员和比利时首相陪同下专门到IMEC参观交流,也就不难解释了。IMEC的人说,拜登政府今年建立的国家半导体技术中心(NSTC),就是学了IMEC政府支持和行业输入结合的模式。IMEC去年底还应美国邀请在普渡大学设立个办事处,主要任务就是教NSTC怎么开展工作。

欧盟的专家怎么看AI对人类社会的影响

为了让大家对AI有直观认识,主办方组织参会人员参观了布鲁塞尔中央火车站附近的FARI Test and Experience Center,这是个面向公众的AI测试/体验中心,由欧盟恢复和复原基金(RRF)资助,欧洲数字创新中心(EDIH)也设在里面,在开发可信赖AI和全球监管框架方面开展研究。半天的体验,主要是来自欧美不同实验室的AI产品和原型演示,有个环节是访客用VR体验AI在城市规划、科研和医疗等虚拟场景下的应用,最后是一个智能电网、机器人和外骨骼AI赋能场景的互动。整体来说体验还是不错的,安排也很有秩序。

这次AI项目的主题是“law, ethics & AI",符合预期的是,欧洲的专家果然把重点都放在了讲述AI对人类社会这些具体领域带来的风险挑战上,以及怎么从法律和伦理上去应对。比如英国伦敦大学学院教育和社会学院的教授Wayne Holmes,总体上对AI教育是批判的,觉得还需要更多研究和证据来支持AI对教育是好事这个结论。他举了很多AI在教育中的实际应用案例,以及产生的问题:比如AI在教育中收集大量学生数据,造成隐私泄露和监控等问题;过度依赖AI技术削弱教师的专业判断和学生自主学习能力。最后提出一个灵魂问题:怎么防止AI教育影响人类思维和表达的独特性、真实性?

鲁汶大学医院的一名医学教授在讲AI和医疗结合时也谈到,AI的特长是复杂决策和处理海量数据,但缺点是黑箱效应,谁都不知道AI是怎么决策的,这可能导致难以预测的行为和后果,要是用在一般场景还好,但要用在人命关天的医疗设备中,风险就比较高。应当把AI当成医疗器械来看待,适用欧盟已经比较成熟的医疗器械法规和指令,就像医疗器械在上市前得经过严格测评,医用AI在投放市场前也需要做测评,确保可靠和安全。不仅如此,对AI在实际医疗环境中的表现也要测评,看能不能取得预期的临床效果。

专注于职业健康和、职业安全、工作条件等劳工保护议题研究的欧洲贸易联盟研究所的(ETUI)派研究员Aida Ponce Del Castillo来讲了AI对劳工保护的影响。Aida讲了很多AI导致的工作监控的问题,认为工作监控本来在职场中就长期存在,但AI的应用可能让它变成更隐蔽和全面的监控,大大地增加对员工个人生活的侵入。显然她接触了大量这类的案件,能举出很多实际的工作监控场景:例如,公司通过监控员工的在线行为、工作产出和工作模式来评估绩效。一些公司使用屏幕录制、位置跟踪和应用程序使用时间监控等,衡量员工的“生产力”。还有一些公司用如麦克风、压力传感器、电子邮件、计算机使用数据这些物理和虚拟的传感器收集员工的工作相关数据,以便监控。

来自比利时皇家军事学院的研究员Ann-Katrien Oimann和南丹麦大学战争研究中心的高级研究员Anna Nadibaidze讲了AI在战争中的作用,谈到AI会降低武装冲突门槛、增加意外冲突风险。Ann-KatrienAI认为,AI系统能快速处理大量数据并做出决策,这在某些情况下是优势,但也可能导致因缺乏充分考虑而误判或过早开展军事行动。军事指挥官过度依赖AI系统提供的情报和建议,疏于自己去判断和干预,在复杂和动态的战场环境中也更容易导致错误决策。Anna则从更大的视角指出,国家可能会为获得战略优势加速AI军事技术发展,导致战略不稳定和军备竞赛。而且AI的应用会降低军事行动透明度,不透明就会增加其他国家的不信任,导致对方在焦虑下先发制人。

从这些观点可以感觉到,欧洲专家对AI对人类社会影响这个问题,相关的研究已经深入到具体的社会部门,可以说是比较前沿了,但他们基本从风险及监管入手,但却有意无意忽视了AI好的方面、促进发展和赋能人类的方面。印象很深的是,对Wayne Holmes对AI教育的批判,参会的一名纽约大学计算机科学专家在互动环节对他发起尖锐的挑战,质疑他偏颇地过分强调了风险和问题,却没有看到AI对教育的好处和赋能。结果Wayne竟然显得有点恼怒,大声回应:“我长期研究这个问题,确实没看到好处,如果你觉得有,那说出来,举一个好处大过风险的例子!”

我一直对欧洲在数字治理方面和美国、中国十分不同的路径,包括“布鲁塞尔效应”的根源很感兴趣,在茶歇的时候碰到一位来自乌克兰、研究AI与人权的律师聊到这个问题,她的回答给了我一些启发。她谈到,欧洲历史上经历了很多次因为技术发展带来的社会和环境问题,比如工业革命引发了严重环境污染,导致了恶劣的劳动条件,过长的工时、童工和剥削等劳工问题。这种历史的痛苦经验,让欧洲的监管文化特别钟爱“预防性”的路径,就是因为害怕风险带来的伤害,特别想在技术对社会产生实际作用之前先管起来。GDPR对数据管的严,一个历史背景就是纳粹德国大量收集和滥用犹太人的数据进行种族灭绝。对AI的监管,欧盟也没摆脱开这种“预防性监管”的思维定式。

欧盟人工智能法对AI的监管

这是我个人最感兴趣的部分。欧盟人工智能监管的中心在布鲁塞尔,接近布鲁塞尔、又有很强的法律和科技交叉学科研究的鲁汶大学成为欧盟在AI立法方面十分倚重的智囊,一些法学院的教授直接参与了立法草案的撰写和修改工作,所以他们对欧盟AI法案的理解相对更接近欧盟监管部门。

有一点出乎意料的是,和Breton等欧盟大佬的力挺不同,几乎所有的专家都提到或至少默认:欧盟AI法案远远称不上是完美,它是在一个很紧的时间线下开展的,都想着在欧洲议会和欧盟领导层换届之前把这事完成,因此立法的质量和成熟度不如GDPR(尽管GDPR也绝对算不上完美),产业界的很多合理诉求没有得到吸纳。很多人认为,到了实际执行层面,这部法律会产生很多问题,包括怎么解决和GDPR、DMA、DSA这些法律之间的重叠和协调。还有一些人对和美国的监管标准不一致,担心以后和美国在AI产品和服务上的互操作问题。

但在讨论中,绝大多数人都不认为欧盟AI法案的监管是严苛的。专家们特别强调:这个法案只是规定了框架性的监管思路,但是在落实上却把主要职责交给了标准。各欧洲标准化组织(ESOs),比如欧洲标准化委员会(CEN)、欧洲电工标准化委员会(CENELEC,将负责制定具体的AI监管标准,确保整个欧盟范围内技术规则实施上的一致和清晰。这和GDPR事无巨细的路径不同,标准的重要性将极大突出,也给了产业界去施加影响的更多空间,因为产业界对标准制定有很大影响力。这个观点,我和国内一些对欧盟人工智能法有较深研究的专家交流时,也有讨论到。

从宏观政策来说,欧盟AI法案的这一变化体现了欧盟在安全和发展方面的平衡,也说明GDPR不太成功的经验也在促使他们反思,在技术和产业面前更加谦抑。从合规来说,中国出海欧洲的AI企业,与其过度纠结欧盟AI法案的文本,不如往前多考虑一步,想想怎么在标准方面做一些事情,让这部法案的落地更合理、更能减轻合规成本。

多数专家对美国很多人关于AI法案会扼杀创新、伤害中小企业的观点也不买账。相反,很多专家指出,中小企业的特殊需求一直欧盟在设计AI法案时的主要考虑之一,比如“监管沙箱”的设计,允许初创企业和中小企业在上市前在一个安全封闭的环境先开发和测试,成熟了再上市。针对中小企业,AI法案还设计了简化的合规程序。法案的定期审查和更新机制,就是着眼保护创新设计的,允许法案灵活适应技术进步,在不妨碍进步的情况下监管。

东不压桥研究院
关注地缘政治竞争中的科技政策与数字治理,仅代表个人观点,与作者所在的组织无关。
 最新文章