将 ScienceAI 设为星标
第一时间掌握
新鲜的 AI for Science 资讯
编辑 | 白菜叶
那么如何使用这些工具呢,又有哪些需要注意的呢?
图示:应用界面截图。(来源:网络)
当被问及最佳的人工智能搜索引擎工具时,加拿大卡尔加里的流行病学家 Razia Aliani 说道:「我总是说,这取决于你真正想做什么。」
当 Aliani 需要了解某个话题的共识或意见分歧时,她会倾向于使用「共识」。
Aliani 也在系统评价公司 Covidence 工作,她在审查大型数据库时会使用其他 AI 工具。例如,她使用 Elicit 来微调她的研究兴趣。在输入初始研究问题后,Aliani 使用 Elicit 排除不相关的论文并深入研究更相关的论文。
Aliani 表示,人工智能搜索工具不仅可以节省时间,还可以帮助「提高工作质量、激发创造力,甚至找到减轻任务压力的方法」。
Anna Mills 在加利福尼亚州旧金山的马林学院教授入门写作课程,其中包括研究过程课程。她说,向学生介绍这些工具很有吸引力,但她担心这些工具可能会妨碍学生对学术研究的理解。
相反,她热衷于教学生人工智能搜索工具如何犯错,这样他们就可以培养「批判性地评估这些人工智能系统给他们提供的东西」的技能。
BiologGPT 的创始人 Conner Lambden 表示:「成为一名优秀的科学家需要对一切事物保持怀疑,包括你自己的方法。」
那么不准确的答案和错误的信息怎么办?
人们对主要人工智能聊天机器人(如 ChatGPT)输出的准确性表示担忧,因为它可以「产生幻觉」产生虚假信息并编造参考资料。
这导致人们对科学搜索引擎产生了一些怀疑——用户表示,研究人员应该谨慎行事。人工智能研究工具面临的常见错误包括编造统计数据、歪曲引用的论文以及基于这些工具的训练系统的偏见。
瑞士洛桑大学的体育科学家 Alec Thomas 在使用人工智能工具时遇到的问题,导致他放弃了使用这些工具。Thomas 以前很欣赏人工智能搜索工具,但在发现「一些非常严重的基本错误」后,他停止使用它们。
例如,在研究患有饮食失调的人参加体育运动会受到怎样的影响时,人工智能工具总结了一篇它认为相关的论文,但实际上「它与原始查询无关」,他说,「我们不会相信一个已知会产生幻觉的人,那么我们为什么要相信人工智能呢?」
开发人员如何解决不准确的答案?
有开发人员表示,他们已经实施了安全措施来提高准确性。加利福尼亚州奥克兰 Elicit 公司的工程主管 James Brady 表示,公司非常重视准确性,并使用了多种安全系统来检查答案中的错误。
Buckland 表示,Web of Science AI 工具具有「强大的保护措施」,可以防止包含欺诈和有问题的内容。她说,在 beta 测试期间,该团队与大约 12,000 名研究人员合作,收集反馈意见。
尽管这样的反馈可以改善用户体验,但 Olson 表示,这也可能会影响幻觉。人工智能搜索工具「接受过人类反馈的训练,它们希望为人类提供良好的答案」,Olson 说,因此「它们会填补不存在的空白」。
印第安纳州印第安纳波利斯的生成式人工智能研究员 Andrew Hoblitzell 通过一个名为 AI4All 的项目在大学授课,他认为人工智能搜索工具可以支持研究过程,前提是科学家验证生成的信息。「目前,这些工具应该以混合方式使用,而不是作为权威来源」。
相关内容:https://www.nature.com/articles/d41586-024-02942-0
人工智能 × [ 生物 神经科学 数学 物理 化学 材料 ]
「ScienceAI」关注人工智能与其他前沿技术及基础科学的交叉研究与融合发展。
欢迎关注标星,并点击右下角点赞和在看。
点击阅读原文,加入专业从业者社区,以获得更多交流合作机会及服务。