ChatGPT两周岁:人工智能如何改变了科学家的生活

文摘   2024-12-03 19:36   浙江  

ChatGPT两周岁:这款人工智能聊天机器人如何改变了科学家的生活

有多少研究人员在使用这款人工智能工具?《自然》杂志收集了相关数据,并与学术界人士进行了交流。
         

 

         

 

ChatGPT是一种从大量人类生成的数据中学习的生成式人工智能系统。
自ChatGPT向公众发布以来的两年间,研究人员一直在用它来润色学术论文、查阅科学文献以及编写分析数据的代码。尽管一些人认为,这款于2022年11月30日广泛亮相的聊天机器人提高了科学家的工作效率,但也有人担心它会助长抄袭之风,给研究论文引入不准确信息,并且消耗大量能源。    
总部位于新泽西州霍博肯的威利出版公司在今年3月和4月对1043名研究人员进行了调查,了解他们如何使用ChatGPT等生成式人工智能(AI)工具,并将初步结果分享给了《自然》杂志。81%的受访者表示,他们曾在个人或专业方面使用过ChatGPT,使其成为迄今为止在学术界最受欢迎的此类工具。四分之三的受访者认为,在未来5年内,研究人员掌握人工智能技能以开展工作将变得很重要。
“之前就有人在使用一些人工智能写作助手,但这些功能强大的大型语言模型发布后,情况发生了相当大的变化。”加利福尼亚州斯坦福大学的人工智能研究员詹姆斯·邹(音译)说道。引起翻天覆地变化的就是作为ChatGPT聊天机器人基础的模型,它是由位于加利福尼亚州旧金山的科技公司OpenAI创建的。
为了纪念ChatGPT诞生两周年,《自然》杂志收集了有关其使用情况的数据,并与科学家们探讨了ChatGPT如何改变了研究格局。
ChatGPT相关数据
• 60000:据估计,2023年至少有这么多篇学术论文是在大型语言模型(LLM)的协助下撰写的。这略多于研究团队所调查的学术出版物Dimensions数据库中所有文章的1%。    
• 10%:据估计,2024年上半年生物医学科学界成员发表的研究论文中,至少有这么大比例的论文摘要借助了大型语言模型的帮助。另一项研究估计,2月份计算机科学界的这一比例更高,达到17.5%。
• 6.5% - 16.9%:2023年和2024年提交给一些顶级人工智能会议的同行评审中,据估计有这么大比例的评审内容主要是由大型语言模型生成的。这些评审是对会议上提交的研究论文或报告进行评估。
写作助手
柏林应用科技大学的计算机科学家兼抄袭问题研究员黛博拉·韦伯-乌尔夫表示,所有这些通过评估文本中大型语言模型特有的模式和关键词而得出的数据,可能都是保守估计。她的研究表明,检测工具一直无法确定一篇论文是否借助了人工智能的协助。
在过去两年里,科学家们发现,使用ChatGPT起草论文摘要、科研基金申请以及给学生的推荐信,能让他们有更多精力专注于复杂任务。“值得我们花时间的是那些难题和有创意的假设。”奥罗拉市科罗拉多大学医学院的医学信息学家米尔顿·皮维多里说。
人工智能能帮你撰写下一篇论文吗?
研究人员表示,大型语言模型在克服语言障碍方面尤其有用。“它使写作变得大众化,对那些把英语作为第二语言的人很有帮助。”宾夕法尼亚州匹兹堡卡内基梅隆大学的化学家加布·戈麦斯说。11月在预印本服务器SSRN上发布的一项未经同行评审的分析发现,ChatGPT发布后,母语非英语的作者所撰写论文的写作质量有所提高,且提高幅度超过了英语流利的作者所撰写论文的写作质量。    
自2022年发布以来,ChatGPT已经进行了多次升级。2023年3月发布的GPT - 4因其生成类人文本的能力给用户留下了深刻印象。OpenAI于9月宣布的最新版本o1,付费用户和部分开发者可试用,据该公司称,o1“能够对复杂任务进行推理,在科学、编码和数学领域能比之前的模型解决更难的问题”。加利福尼亚州莫菲特场湾区环境研究所的数据科学家凯尔·卡巴萨雷斯使用o1重现了他博士项目中的一些代码。当根据卡巴萨雷斯研究论文方法部分的信息进行提示时,该人工智能系统在一小时内就写出了他在研究生期间花了将近一年时间才构建出来的代码。
局限与潜力
皮维多里说,到目前为止,ChatGPT和类似人工智能系统在文献综述方面做得不太成功。“它们并不能真正帮助我们提高效率,”他说,因为研究人员需要充分阅读并理解与自己领域相关的论文。“如果一篇论文对你的研究并非至关重要,你或许可以用人工智能工具来对其进行总结。”他说。但大型语言模型已被证明会产生幻觉——也就是说,编造信息。例如,它们可能会提及论文中并不存在的图表。    
隐私是使用大型语言模型的研究人员面临的另一个问题。例如,当科学家将尚未发表的原始数据输入这些人工智能工具来撰写论文时,存在这些内容被用于训练这些模型的更新版本的风险。“这些都是黑箱,”韦伯-乌尔夫说,“你根本不知道你上传的数据会发生什么情况。”
为避免这种风险,一些研究人员选择使用小型本地模型而非ChatGPT。“你在自己的电脑上运行它,不会有任何数据对外共享。”皮维多里说。他还补充说,某些ChatGPT订阅计划可确保你的数据不会被用于训练模型。
过去一年里,研究人员一直在探究的一个大问题是,ChatGPT能否超越虚拟助手的角色,成为一名人工智能科学家。一些初步尝试表明这是有可能的。邹正在牵头开发一个虚拟实验室,在这个实验室里,不同的大型语言模型在一个跨学科团队中扮演科学家的角色,由一名人类科学家给予高层次的反馈。“它们共同协作来制定新的研究项目。”他说。上个月,邹和他的同事们在未经同行评审的情况下,将其中一个项目的结果发布到了预印本服务器bioRxiv上。这个虚拟实验室设计出了纳米抗体——一种小型抗体,能够与引发新冠疫情的新冠病毒SARS-CoV-2的变体相结合。人类研究人员通过实验对这项工作进行了验证,并确定了两个有希望进一步研究的候选对象。    
戈麦斯和他的同事们也对在实验室中使用ChatGPT的前景感到兴奋。去年年底,他们借助该工具并在一个机器人装置的帮助下设计并开展了几项化学反应。“我们期望这些模型能够发现新的科学。”戈麦斯说。
doi: https://doi.org/10.1038/d41586-024-03940-y   
关注“新污染物监测与分析”公众号
声明:本文仅供科研交流使用,文中所有观点均来源于已发布的论文,如有侵权或重大问题请通过后台与编辑联系。
欢迎高校、科研单位以及监测同行的朋友们投稿!邮箱6514064@zju.edu.cn感谢您的点赞、转发、在看,您的鼓励是我们更新的动力!
添加编辑微信 xwrw1234 加入读者交流群,与大咖在线交流
 

新污染物监测与分析
“新污染物监测与分析”致力于探索和分享新污染物研究动态、前沿热点以及最新发表的学术论文。为科研人员、学者、管理者搭建一个专业的信息交流平台,共同关注和应对新污染物带来的环境和健康挑战。
 最新文章