本文作者:神经科学家及科学作家:Tim Requarth
生成式人工智能工具(如ChatGPT)的一大承诺是,机器人将取代写作中的繁琐工作。一位医生去年告诉《纽约时报》:“以前我需要大约半小时才能写完的东西,现在只需要一分钟。”他指的是一份预授权表格。一位化学家在《自然》杂志上写道,使用AI起草他所谓的“死文档”——这些文档构成了拨款申请的大部分苦差事——将工作量从三天减少到三小时。确实,在自动化公式化写作方面,比如为国立卫生研究院拨款撰写另一份“设施和其他资源”文件,AI几乎肯定会加快一些速度。但在处理更复杂的写作任务,比如“具体目标”页面或一封微妙的电子邮件时,使用AI实际上会节省时间吗?还是所有必要的提示设计、事实核查和手动编辑只会让你慢下来?
生成式AI时代近两年后,我们不必依赖轶事:关于AI如何影响写作过程的实际数据是存在的,尽管它描绘的图景比AI怀疑论者或AI支持者可能让你相信的要复杂得多。去年发表在《科学》杂志上的一项研究中,研究人员要求受过大学教育的工人完成与其工作相关的现实写作任务——那些随机分配使用ChatGPT的人完成任务的速度快了40%。随后对数百名商业顾问的研究发现了类似的好处。那些使用AI的人在写作繁重的任务上快了25%。
https://doi.org/10.1126/science.adh2586
https://www.hbs.edu/ris/Publication%20Files/24-013_d9b45b68-9e74-42d6-a1c6-c72fb70c7282.pdf
但医学领域的发现使情况变得复杂。两项研究精确到秒地测量了临床医生阅读和回复数万条患者门户消息的时间,无论是从AI生成的草稿开始还是自己撰写回复。出乎意料的是,使用AI生成草稿的临床医生在患者消息上的花费时间与没有AI的医生大致相同。结论是,尽管效率提升是可能的,但肯定不是保证的。
https://doi.org/10.1001/jamanetworkopen.2024.6565
https://doi.org/10.1001/jamanetworkopen.2024.3201
然而,超越这些研究中的顶线结果,揭示了使用AI的一些意想不到的好处。在关于患者门户消息的一项研究中,尽管使用AI生成内容的医生没有节省时间,但他们报告说体验到的认知负荷和感知到的倦怠感较少。这一结果表明,编辑在认知上可能比写作负担更小,AI辅助可能减轻与写作任务相关的部分认知负担。减少认知负担可能会削弱与想法的有意义和富有成果的斗争,这种斗争使写作成为一个如此有用的思考和学习工具。但对于科学家来说,倦怠缓冲可能尤为重要:2021年《自然》杂志对3200名科学家的调查显示,十年来最低的工作满意度,倦怠迹象普遍存在——尤其是在女性研究人员中。
https://doi.org/10.1001/jamanetworkopen.2024.3201
AI辅助也可以提高质量。上述研究中的受过大学教育的工人产生的写作质量提高了18%(由从事相同职业的盲评经验丰富的专业人士评判),顾问的表现质量提高了40%(由其他顾问和MBA学生评判)。在这两个实验中,原本在写作任务上得分较低的工人和顾问在感知质量上获得了最大的提升。这些发现表明,由于沟通差异可能与社会差异相关,AI可能成为改善公平的工具——正如一些科学家在Science禁止AI工具如ChatGPT后不久指出的那样。(该禁令后来被解除。)
https://www.science.org/doi/10.1126/science.adg9714
当然,“质量”可以有多种形式。在上述两项医学研究中的一项中,医生必须纠正AI生成回复中的不准确之处,但他们报告对这些回复中的同理心水平印象深刻。尽管在这项特定研究中没有量化,但这一发现与其他研究表明AI对患者的回复比实际医生的回复更具同理心的研究一致。事实证明,患者真的很喜欢那些忙碌的医生在漫长的一天结束时发送第一百条消息时省略的所有客套话。AI可能呈现一个“两全其美”的场景:只要医生对AI生成的草稿进行准确性审查,患者就能在同样的医生努力下获得更富有同情心和信息量的回复。
关键是要避免过度依赖,使AI保持为一个有价值的助手,而不是一个无意的合著者。
这一发现让我想起了我使用AI的一个常用方式:作为我电子邮件的语气编辑。以这个假设场景为例:一位首席研究员对成像核心设施的主任感到愤怒。他们发送了一封尖刻的电子邮件,几乎立刻就后悔了。这就是我发现AI无尽的外交手段的好处所在。即使AI可能在复杂的科学或临床推理上遇到困难,它也有潜力在写作的其他维度(如同理心)上帮助提高质量,而研究人员在处理通信时可能会忽略这些维度。我们如何看待自动化同理心,当然,是另一个完全不同的问题。
对于下面的例子,我将使用Anthropic的Claude模型3.5(Sonnet),这是一个值得替代ChatGPT的模型,来探讨你(和你的电子邮件)如何从一点自动化的外交手段中受益。
提示词:
以机智和外交的方式重写这封给成像核心设施主任的电子邮件。使用非正式但专业的语气:
<<<约翰逊博士,我写信是为了表达我对您的核心设施完全处理不当我的实验室数据的沮丧。我们最近关于睡眠依赖记忆巩固研究的文件一团糟。有些文件名错误,而其他文件似乎已损坏。我们为您的服务支付如此高的价格,却得到这样的结果,这让我无法理解。我们需要这些初步数据用于两周后到期的拨款申请,这场灾难已经让我们失去了宝贵的时间。
我要求解释并期望立即采取行动。如果48小时内问题未解决,我将别无选择,只能向研究所主任报告情况。>>>
Claude输出:
亲爱的约翰逊博士,
我希望这封邮件能找到您一切安好。我联系您是因为我们在最近由您的核心设施处理的睡眠依赖记忆巩固研究数据中遇到了一些问题。
我们在审查文件时遇到了一些麻烦。有些文件标签不正确,我们无法打开其他文件。我知道您的团队通常做得很好,所以我希望我们能一起解决这个问题。
我们的时间有点紧——我们计划在两周内使用这些数据提交拨款申请。我对这个挫折有点担心,但我乐观地认为我们可以很快解决这个问题。
您能在接下来的一两天内抽出时间打个电话吗?很高兴能一起讨论我们遇到的问题,并制定一个行动计划。我很乐意让您的任何团队成员参与进来,他们可能能够帮助解决问题。
期待解决这个问题,让我们的分析重回正轨。提前感谢您的帮助!
最好的祝愿,
[您的名字]
尽管对某些人来说,在那一刻正义地向可能完全有错的核心设施主任发泄可能会感觉良好,但修改后的电子邮件更有可能有效地解决眼前的问题。调整语气的电子邮件保持了尊重的语气,专注于解决问题而不是责备,并假设核心设施的善意。通过提供紧迫性的背景而不威胁,并建议具体的下一步行动,它规划了一条解决问题的路径,而不是升级和防御。它还维护了专业关系,这对首席研究员和核心设施主任来说可能至关重要。如果这种数据处理问题是一个无能模式的体现,那么也许首席研究员可以在不那么激烈的时刻提出这一点。
一如既往,AI辅助有其缺点。用户可能会过度依赖AI输入,或被其不当地偏见影响。关于患者消息的第三项研究发现,与医生草稿相比,AI工具增强了回复的信息量和教育价值。然而,在使用AI草稿时,医生编辑的回复内容微妙地改变了,以类似于AI提出的内容,这表明AI引入了锚定偏见。令人担忧的是,医生不仅仅是使用AI来快速启动写作机制,而是采用了AI的判断本身,而不是使用自己的临床判断。这种非常真实的担忧是我通常建议在写作过程的离散阶段使用AI,比如生成大纲或对粗稿提供反馈,而不是使用它从简单的提示生成完整草稿的原因。
https://doi.org/10.1016/S2589-7500(24)00060-8
以下策略可以帮助你在你的专业知识和AI辅助之间保持健康的平衡:
1基于腹稿产生文本初稿,而不是从空白页开始:使用AI生成草稿是可以的,但首先要自己思考,整理一些结构化的笔记,并将AI生成的内容视为需要批判性审查和大量编辑的初稿。这种方法可以帮助减轻锚定偏差的风险。
2 交替使用AI辅助和非辅助写作:为了发展和保持自己的写作技能,将AI工具融入到你的写作流程中,而不是依赖它们生成大段文字。这也有助于你保持自己的写作风格。
3 定制AI提示词:学会设计具体的提示,引导AI生成更符合你特定需求的相关和有用输出。
4 伦理考虑:在使用AI时保持透明,尤其是在学术写作中,并遵循你所在机构或出版场所设定的任何指南或政策。
5 事实核查和验证:始终验证AI提供的事实、引用和具体声明。这些工具倾向于生成“幻觉”,即听起来合理但实际上不准确的信息块。
当神经科学家探索这一新领域时,重要的是要调整对AI能做什么和不能做什么的期望。它可能在某些任务上节省时间,但在提高质量和减少认知负荷方面的潜在收益可能更有意义。关键是要避免过度依赖,以便AI始终是一个有价值的助手,而不是一个无意的合著者。希望是,通过明智地使用AI,神经科学家可以潜在地释放更多的心理能量,用于推动科学进步的创造性和分析性工作——并提升科学家的福祉。
原文地址:https://www.thetransmitter.org/from-bench-to-bot/from-bench-to-bot-does-ai-really-make-you-a-more-efficient-writer/
更多阅读