如何读出文章是否由人工智能撰写

文摘   2024-08-13 20:04   马来西亚  

这篇文章是著名论坛“生活黑客”的“揭露人工智能”系列文章的一部分。我们将探索六种不同类型的人工智能生成的媒体,并重点介绍常见的怪癖、副产品和特征,以帮助您区分人工智能和人类创造的内容。

从 2022 年底 ChatGPT 向世界推出生成式人工智能的那一刻起,很明显,此后,你再也不能相信你正在阅读的东西是人类写的。你可以让像 ChatGPT 这样的人工智能程序写一些东西——任何东西——它都会在几秒钟内完成。那么,你如何相信你正在阅读的东西来自一个人的头脑,而不是算法的产物呢?

如果使用得当,人工智能程序可以生成令人信服的文本——即使你仍然可以发现揭示其非人类来源的线索。

  人工智能写作的工作原理

生成式人工智能并不是某种无所不知的数字意识,可以像人类一样回答你的问题。它实际上根本不“智能”。当前的人工智能工具由大型语言模型(LLM) 提供支持,这些模型是针对庞大数据集(在本例中是文本数据集)进行训练的深度学习算法。这种训练为它们对用户查询的所有响应提供了信息。当你要求 ChatGPT 为你写一些东西时,人工智能会分解你的问题并确定它“认为”你的查询中最重要的元素是什么。然后,它根据对单词之间关系的理解,“预测”正确的单词序列是什么来回答你的请求。

更强大的模型既能够一次性获取更多信息,又能够返回更长、更自然的结果。此外,聊天机器人通常会使用适用于所有提示的自定义指令进行编程,如果策略性地使用这些指令,可能会掩盖人工智能生成文本的常见迹象。
话虽如此,无论你如何哄骗人工智能做出回应,它都会受制于训练,而且很可能会有迹象表明这样的文本是由LLM生成的。以下是一些需要注意的事项。
  注意常用单词和短语

由于聊天机器人已经接受过寻找单词之间关系的训练,因此它们往往比人类更频繁地使用某些单词和短语。没有特定的单词和短语列表可以作为危险信号,但如果你经常使用 ChatGPT 之类的工具,你可能会开始注意到它们。

例如,ChatGPT 经常使用“深入研究(delve)”一词,尤其是在写作过渡期间。例如“让我们深入研究它的含义("Let's delve into its meaning.")。该工具还喜欢表达一个想法如何“强调underscores”整体论点(例如“这种经历强调了坚持不懈的重要性……This experience underscores the importance of perseverance...”),以及一件事如何“证明”另一件事。作者用 ChatGPT 为本节生成了三篇文章——两篇用GPT-4o,一篇用GPT-4o mini——每篇文章中都出现了“证明testament”——又可以译为“遗嘱”。

  体会写作风格

令人印象深刻的是,AI可以快速地对查询生成响应,特别是当您使用特别强大的LLM时。虽然有些文字看起来很自然,但如果你仔细阅读,你会开始注意到大多数人类作家不会使用的怪癖。

无论你使用的是OpenAI的GPT模型还是谷歌的Gemini模型,人工智能都有一个坏习惯,那就是使用华丽的语言,就好像它主要是在营销文案上训练的一样。人工智能经常会试图向你推销它所谈论的任何东西:它所写的城市通常是“不可或缺的”,“充满活力的”,是它所在国家的“基石”,它使用的类比“漂亮”突出了整体论点,负面后果不仅是坏的,而且是“毁灭性的”。“这些例子都不是孤立的,但是如果你读了足够多的人工智能文本,你会开始觉得你一直在和一个词库说话。

当聊天机器人试图使用随意的语气时,这一点变得更加明显。例如,如果机器人声称自己是一个真实的人,它通常会表现得像泡沫一样,过于热情,以至于听不进你说的任何话。公平地说,在我为这篇文章进行的测试中,ChatGPT的GPT-4 o模型似乎没有像以前那样做到这一点,更喜欢对个人查询做出更简洁的回应,但Meta AI的聊天机器人绝对仍然做到了这一点,每当我分享一个虚假的问题时,它就会扮演最好的朋友和治疗师的角色。

如果你正在阅读一篇表达论点的文章,注意“作者”是如何组织他们的观点的。如果有人要求人工智能工具就某个主题写一篇文章,而不给它太多的指导,那么他通常会收到一篇实际上并没有深入研究论点的文章。人工智能可能会生成简短的段落,提供表面层面的观点,这些观点不会增加太多内容来深化论点或有助于叙述,用前面提到的“高级单词”和华丽的语言来掩盖这些限制。每一段都可能更多地是对论点的总结,而不是试图对论点本身做出贡献。请记住,LLM甚至不知道它在争论什么;它只是把它认为属于一起的单词串在一起。

  言之有理,未必有据

LLMs是黑盒子。他们的训练是如此复杂,我们无法窥视内部,看看他们到底是如何建立他们对单词之间关系的理解。我们所知道的是,所有的人工智能都有产生幻觉的能力(和倾向)。换句话说,有时候AI只会编造一些东西。同样,LLMs实际上什么都不知道:它们只是根据训练来预测单词的模式。因此,虽然他们吐出的很多东西可能都植根于真理,但有时它会预测错误,你可能会在另一端得到一些奇怪的结果。如果你正在阅读一篇文章,你看到一个你知道是不正确的说法被陈述为事实,特别是没有来源,要持怀疑态度。

另一方面,考虑一下这篇文章需要多少校对。如果没有拼写错误,也没有语法错误,这也很有AI 嫌疑:这些模型可能会编造一些东西,但它们不会输出拼写错误等错误。当然,也许作者确保点每一个“i”和交叉每一个“t”,但如果你已经担心文本是用人工智能生成的,那么做作的完美主义可能会是重点观察对象。

教育学人AIED
课程与教学研究与分享,包括但不限于教育概念辨析,教育观念批判。
 最新文章