人工智能 (AI) 已成为基础科学的焦点。2024年诺贝尔化学奖和物理学奖的五位获奖者有一个共同点:人工智能。
事实上,包括诺贝尔委员会在内的许多科学家都在庆祝人工智能成为改变科学的力量。
正如一位获奖者所说,人工智能加速科学发现的潜力使其成为“人类历史上最具变革性的技术之一”。但这种变革对科学到底意味着什么呢?
人工智能有望帮助科学家以更少的资金更快地完成更多工作。但它也带来了一系列新的担忧——如果科学家急于采用人工智能,他们就有可能将科学转变为一种无法被公众理解和信任的东西,无法满足社会的需求。
理解的错觉
专家已经发现至少三种可能诱捕使用人工智能的研究人员的幻觉。
第一个是“解释深度错觉”。仅仅因为人工智能模型擅长预测某种现象(例如,AlphaFold 因预测蛋白质结构而获得诺贝尔化学奖),并不意味着它能够准确地解释这种现象。神经科学研究已经表明,为优化预测而设计的人工智能模型可能会导致对潜在神经生物学机制的误导性结论。
第二是“探索广度的错觉”。科学家可能认为他们在探索性研究中调查了所有可测试的假设,但事实上他们只研究了一组可以使用人工智能进行测试的有限假设。
最后,是“客观性幻觉”。科学家可能认为人工智能模型没有偏见,或者它们可以解释所有可能的人类偏见。然而,实际上,所有人工智能模型都不可避免地反映了其训练数据中存在的偏见以及开发人员的意图。
更便宜、更快捷的科学研究
人工智能在科学领域越来越具吸引力的主要原因之一是它能够以更快的速度、更低的成本产生更多的成果。
这种努力的一个极端例子是 Sakana AI Labs 最近开发的“ AI 科学家”机器。该公司的愿景是开发一个“完全由人工智能驱动的自动化科学发现系统”,每个想法只需 15 美元就可以变成一篇完整的研究论文——尽管批评者表示,该系统产生了“无尽的科学废话”。
我们真的希望未来只需点击几下鼠标就能生成研究论文,只是为了“加速”科学成果吗?这有可能让科学生态系统充斥着毫无意义和价值的论文,进一步加重本已不堪重负的同行评审体系的压力。
我们可能会发现,我们曾经熟知的科学已经被人工智能生成的内容的噪音所淹没。
缺乏背景信息
人工智能在科学领域的兴起正值公众对科学和科学家的信任度仍然很高之际,但我们不能将其视为理所当然。信任是复杂而脆弱的。
正如我们所认识到的那样,“相信科学”的呼吁可能会失败,因为科学证据和计算模型往往存在争议、不完整或有多种解释。
然而,世界面临着许多问题,例如气候变化、生物多样性丧失和社会不平等,这些问题需要公共政策的制定者运用专家的判断力。这种判断力还必须考虑到具体情况,收集来自不同学科的意见和生活经验,并必须从当地文化和价值观的角度进行解读。
正如国际科学理事会去年发布的一份报告所指出的那样,科学必须认识到细微差别和背景,才能重建公众信任。让人工智能塑造科学的未来可能会破坏这一领域来之不易的进步。
如果我们允许人工智能在科学研究中占据主导地位,我们就有可能创造一种知识单一文化,优先考虑最适合人工智能的问题、方法、观点和专家。
这可能会使我们远离负责任的人工智能所必需的跨学科方法,以及解决社会和环境挑战所需的细致入微的公共推理和对话。
科学的新社会契约
随着 21 世纪的到来,一些人认为科学家拥有一份新的社会契约,即科学家将他们的才华集中在我们这个时代最紧迫的问题上,以换取公共资金。目标是帮助社会走向一个更可持续的生物圈——一个生态健全、经济可行、社会公正的生物圈。
人工智能的兴起不仅为科学家提供了履行职责的机会,也为合同本身注入了新的活力。然而,科学界首先需要解决一些有关人工智能使用的重要问题。
例如,在科学研究中使用人工智能是否是一种“外包”,会损害公共资助工作的完整性?应该如何处理这个问题?
那么人工智能对环境的影响又如何呢?研究人员如何在将人工智能融入研究流程的同时,与社会的期望保持一致?
在没有首先建立社会契约的情况下利用人工智能改变科学的想法,有可能是本末倒置的。
让人工智能决定我们的研究重点,而没有来自不同声音和学科的意见,可能会导致与社会实际需求不匹配,并导致资源分配不当。
科学应该造福整个社会。科学家需要在其实践社区和研究利益相关者中就人工智能的未来进行真正的对话。这些讨论应该解决这一新社会契约的各个方面,反映共同的目标和价值观。
现在是时候积极探索人工智能在科学上所能实现或阻碍的各种未来,并建立必要的标准和指导方针,以负责任地发挥其潜力。by Ehsan Nabavi, The Conversation
Adobe博客精选:解锁Adobe Firefly 视频生成