nature发布多篇大模型AI学术应用建议

文摘   2025-01-09 10:47   浙江  

在当今科研领域,从文献梳理的高效化,到学术文本创作的创新性激发,再到编程辅助的精准赋能,大模型 AI 展现出前所未有的潜力。

近期,Nature 聚焦这一热点,发布多篇有关大模型 AI 学术应用的经验文章,可为广大科技工作者提供参考。

ChatGPT 帮助我进行学术写作的三种方式

作者:Dritjon Gruda

doi: https://doi.org/10.1038/d41586-024-01042-3

Dritjon Gruda 说:“生成式 AI 可以成为写作、编辑和同行评审的得力助手——如果你负责任地使用它。”

精华摘要:

听说过房地产的口头禅,“地段、地段、地段”吗?在生成式 AI 的世界中,它是“语境、语境、语境”。

设置语境至关重要。倘若没有语境,你就不能指望生成式人工智能 针对某个问题给出有意义的回答。

①在学术写作中,生成式 AI 应用的关键在于提供上下文,使用时要先概述论文背景和主要论点,选择合适的工具(如 ChatGPT、Gemini、Mixtral 等)并给出精确指令,且要认识到与 AI 的互动是一个迭代过程,可用于完善论文内容和回应审稿意见,但 AI 只是辅助而非代写或审稿。

②在同行评审方面,可利用生成式 AI 组织和表达反馈,总结手稿要点后让 AI 按要求进行评审,但最终评审责任仍在评审者自身,要辨别 AI 建议的合理性。

③作为期刊编辑,利用 ChatGPT 可帮助撰写清晰、有建设性的反馈信给作者,提升反馈质量和编辑与作者间的沟通效果。总之,生成式 AI 虽带来挑战,但能提升学术写作、评审和编辑工作的质量,保留科学探究的核心要素并改善交流。

原文链接:

https://www.nature.com/articles/d41586-024-01042-3

ps:原文有版权,所在单位要有订阅nature,通过ip控制或VPN访问

科学领域中的聊天机器人:ChatGPT 能为你做些什么?

作者:Milton Pividori

doi: https://doi.org/10.1038/d41586-024-02630-z

Milton Pividori花了一年半的时间来研究如何在研究中最佳地使用 ChatGPT。在此,他着重强调了三个关键经验教训。

精华摘要:

文中着重分享了三个关键经验教训,一是要精心设计提示语,明确让模型做事的要求、设定角色、提供示例等;二是需找准合适的任务,区分人类擅长任务和AI擅长任务,像文献综述不同阶段 ChatGPT 的适用性不同;三是秉持 “多写少读” 的策略,使用聊天机器人来写作比用来阅读风险更低,因为让大语言模型(LLM)阅读文章时需完全信任它能准确提取要点(而自己可能不会亲自读文章),但写作时自己能把控输出、及时发现 “幻觉”(无意义或不准确内容)

原文链接:

https://www.nature.com/articles/d41586-024-02630-z

ps:原文有版权,所在单位要有订阅nature,通过ip控制或VPN访问

如何以负责任且合乎道德的方式在研究中利用人工智能的潜力

doi: https://doi.org/10.1038/d41586-024-02762-2

作者:Jane Palmer

人工智能正在推动科学各个领域的进步。但处于前沿的四位研究人员警告称,人们需要保持警惕。

精华摘要:

Ross King 回顾自身在 AI 领域经历,强调利用 AI 推动科学进步的同时要遵循伦理标准,警惕数据偏差与错误结论。Suresh Venkatasubramanian 关注 AI 工具的社会影响及算法公平性,参与制定 AI 权利法案蓝图,指出需明确其能力局限并合理应用。Nyalleng Moorosi 以非洲研究为例,凸显数据代表性对 AI 发展的关键作用,呼吁发展本地系统与数据集。Seydina Ndiaye 点明 AI 对非洲发展的潜力与风险,包括解决发展问题和面临被殖民化隐患,倡导尊重非洲数据权益,促进非洲在 AI 领域的创新参与。

原文链接:

https://www.nature.com/articles/d41586-024-02762-2

ps:原文有版权,所在单位要有订阅nature,通过ip控制或VPN访问

使用 ChatGPT 更好地编程的六个技巧

doi: https://doi.org/10.1038/d41586-023-01833-0

作者:Jeffrey M. Perkel

计算机科学家警告称,尽管这些工具功能强大,但它们并不像看上去那么智能。使用它们时要谨慎。

精华摘要:

聊天机器人其看似智能实则不然,本质像 “随机学舌鹦鹉”。基于此,文章为使用者提出六点谨慎使用的建议:一是依据任务特性选择应用场景,小型离散编程任务较适用;二是对其给出的代码要信任但需核实,注意排查简单错误及 “幻觉” 内容;三是关注代码安全性,因受训练数据影响,生成代码可能存在效率低、漏洞等问题;四是利用迭代特性,将编码视为对话,按需调整设置优化结果;是采取拟人化策略,明确指令、细化问题、提供示例,引导其精准回应;六是顺应变化,鉴于 LLMs 持续进化、新工具不断涌现,使用者应紧跟步伐灵活运用。总之,ChatGPT 等工具虽强大但使用时务必审慎。

原文链接:

https://www.nature.com/articles/d41586-023-01833-0

ps:原文有版权,所在单位要有订阅nature,通过ip控制或VPN访问

浙大一院图书馆
帮助医务工作者了解本馆资源、服务以及最新动态。
 最新文章