点击上方“阿昆的科研日常”,关注我的公众号。
添加微信:akunscience28 备注:AI
免费获取《35个ChatGPT写作到投稿提示词》
之前的文章中,我演示过ChatGPT用于润色的效果(ChatGPT润色实测评估)。
很多同学用过之后表示好用,也陆续完成了自己的文章:
然而,在学员进行润色投稿的过程中,我们又发现一些认知和使用方法上的误区。
现总结如下:
如果还在纠结语法错误,那说明你还没懂大模型的运作机制。
1700亿的优质文本数据训练再加上训练后的RLHF微调(人类反馈强化学习),语法正确对于ChatGPT来说是最基本的。
就像咱们在中国出身长大的人,你不用教ta中文的主谓宾,ta说中文也不会出现语法错误。ChatGPT经过人类文本预训练,语法准确性也是同理。
ChatGPT出现以后,文章除了重复率又有了AI率。
很多同学担心ChatGPT润色会导致高AI率。
AI检测率通常根据一些特定特征来判断,比如词汇分布、句子结构的单一性、连贯性和内容的可预测性。
与人类写作相比,AI生成的文本可能会显得呆板、平淡,缺少创造力。
但是涉及到润色、中译英,基础文本是你自己写的文章,并不是AI创作的。
AI只是帮你纠正语法、理顺逻辑、使之更符合学术规范。
所以,AI率高,根本原因是提示语不对,对风格和用词的定义规范不够细致精准,或者改动过大。
另一方面,Science的主编曾公开说过,AI率不准确,也毫无意义。
有的同学用ChatGPT润色完还不放心,选择用传统的润色工具,如Grammarly, DeepL, Quillbot等再润色一遍。
ChatGPT为代表的大模型(LLM)和传统的润色工具Grammarly等相比,它们的底层技术原理是不一样的:
大模型LLM基于 Transformer 架构,以及庞大的参数量和数据集训练;
Grammarly等则是基于传统的机器学习和规则引擎。
(大模型的自注意力机制让它能够超越句子,对更长文本的上下文作为整体来关联理解,从而提升文本的逻辑性和连贯性。)
相比之下,ChatGPT为代表的大模型LLM用于润色,有如下优势:
语义理解:ChatGPT可以更好地理解复杂学术句式,尤其在处理跨句、跨段的长文本时,可以通过语境预测出更加符合原意的表达。比如帮你的摘要部分加一个结尾,陈述该项研究的意义。之前的文章中我还举过一个例子:
摘要中我描述过“蛋白的定量分析”,ChatGPT在Methods部分的Western Blot Analysis(蛋白印记分析)部分给我补充了该部分实验“The protein bands were quantified with ImageJ software”。
连贯性和逻辑性:大模型生成的润色文本通常在连贯性和逻辑性上表现更好,能适应学术文章的特殊需求。比如主语是“The protein”,放到更长的上下文,ChatGPT也许会帮你改成which/it/that等,让文章更连贯,整体性更好。
专业术语:大模型可以结合上下文更精确地调整和应用学术术语,对学术类型文本更加友好。比如我之前举过的GPT润色的惊艳时刻:
原文:Following antigen clearance and resolution of inflammation, most activated T cells die.
ChatGPT润色后:Following the clearance of antigens and the resolution of inflammation, most activated T cellsundergo programmed cell death.
GPT把cells die改成了cells undergo programmed cell death(细胞程序性死亡)。上下文并没有出现过一次“细胞程序性死亡”,但是GPT又改的非常精准。可以说,95分的水平,润色公司也不一定能改成这样。要想达到这个水平,一是要能理解上下文,二是要有领域内的背景知识。
以上。
课程购买方式
公众号后台回复关键字 6400,查看加入方式
如果你觉得我的分享对你有帮助的话,欢迎大家在这里点赞、在看、分享。当然,也欢迎大家在这里打赏。互动越多,更新越快哦~
声明:本公众号的所有原创内容,在未经允许的情况下,不得用于任何商业用途,违者必究。