我所说的一切都可能是错的!
即使你赞同我的观点,
你的生活也不会因此有任何改变!
除非——你采取了相应的行动。
(这是书先生的第368篇原创分享。2024年5月17日,于新加坡)
大家好,我是一直在读书的书先生。
前几天, OpenAI 推出了 GTP-4o。这个模型有两个两点:
第一,它可以通过摄像头和现实世界互动。
第二,你可以随时打断它,然后它可以接着前面的对话调整回答。
这两个特点在下面的官方视频里都有所体现:
第一个功能有很多实用的功能,比如给小孩儿讲题、帮助盲人描述环境、在历史景点根据摄像头内容现场讲解。这些应用的特点都是 ChatGPT-4o 根据摄像头内容和人实时互动。我相信不久之后,就能看见相应的应用。
第二个特点看起来没有第一个炫酷,但影响更为深远,因为它使和 ChatGPT 的交互更像人类了。同时,它也意味着——提示词工程真的没有前途。
ChatGPT 问世之后,提示词工程师就成了一个很火的词,甚至很多人说,接下来十年是提示词工程师的黄金十年。
从一开始,我就不同意这种看法。在公众号里,在直播间里,我都反复提醒大家,提示词工程没有前途。
这次 ChatGPT 4o 的问世,让这一点更加明显了。
接下来,我就借这次更新,把我认为提示词没有前途的理由介绍一下,供您参考。
人们认为提示词工程师是未来重要职业方向,一个最重要的理由就是:提示词的质量直接决定了 ChatGPT 回答的质量。
这句话当然没有错。当人们在用这句话为提示词工程重要性背书时,其实还有一个隐含前提,那就是人们希望一次性获得好答案。
但这不是人类问答的方式。人类的交流是有来有回的,很多时候,需要好几轮的对话,才能获得满意的回答。
在这次更新之前,如果要通过多轮对话来获得满意的回答,其实很麻烦。因为一定那问题没有问好, ChatGPT 的确会给出不那么让人满意的答案。
更糟糕的是,你不能打断它,只能等它回答完毕。如果你在它没有回答完之前,强行终止重新提问,那当前的答案不会进入聊天历史,所以不会成为下一轮问答提示词的一部分。这意味着,你重新提问,它就完全重新回答。是否有提升,完全取决于你重新提问的质量。
正是因为这个特点,人们认为提示词工程很重要,甚至认为它是未来人们必须掌握的技能,似乎问不出好问题,在人工智能时代就没法生存了。
但现在这种看法没有什么道理了,因为你可以随时打断 ChatGPT 了,而它被打断的回答,也会成为聊天历史的一部分。这样一来,你随时发现回答不对劲儿,随时可以调整。这就使提示词工程显得不那么重要了。
可以随时打断,随时调整问题,这是提示词工程没有前途的第一个理由。
可能有朋友会说,就算是人类的交流,能一次性把问题问清楚,也是值得追求的吧。和这种人交流,难道不是更省心吗?这种人不是更受欢迎吗?
对,这话也没有错。但和 ChatGPT 交流,我们不需要这样做。那是我们对聊天机器人的要求,不应该是聊天机器人对我们的要求。
我们来看两个典型的使用 ChatGPT 的方式,它们也分别涉及两种人类和 ChatGPT 的角色关系。
一种是我们有不懂的事情,向 ChatGPT 提问。这时候,ChatGPT 是老师,我们是学生。老师不应该对学生提问有高要求,恰恰相反,一个好老师,应该是无论学生问得多么糟糕,都会想办法回答学生的问题,耐心地理解学生、引导学生、帮助学生。
现在很多老师对学生提问要求很高,是因为教育资源有限,耐心也不够。但这两点,对 ChatGPT 来说都不是问题。ChatGPT 能同时服务全球所有人(只要电和显卡够用),它拥有无限的耐心。所以, ChatGPT 有能力也有“义务”通过耐心地引导,搞清楚人类想问什么,然后给出高质量的回答。
另一种是我们有一些任务,让 ChatGPT 帮我们做,比如翻译、检索总结文献等。这种情况下,我们和 ChatGPT 是老板和员工的关系。
现在人们经常说,有了人工智能加持,一个人就是一个公司。在这个一人公司里,你是老板,AI 是员工。老板不需要锻炼自己给员工下命令的能力,应该是员工锻炼理解老板命令的能力。
老板的任务是选择合适的员工来做合适的工作。对于员工都是 AI 的一人公司,老板的主要任务是配置 AI Agent 的能力,根据任务,协调它们的互动。这一点今天就不展开来说了,以后我通过自己设计的 AI Agent 来给大家视频讲解。
所以,人类和 ChatGPT 的角色定位,决定了应该是 AI 提高理解人类提问的能力,而不是人类提高自己向 AI 提问的能力。这是提示词工程没有前途的第二个理由。
最后一个原因是大模型本身的定位。
无论是现在的大语言模型,还是即将出现的大多模态模型,还是最终形态——通用人工智能——,它们在人类社会里,都必将扮演基础设施的角色。
也就是说,大模型就是未来的电。
基础设施要人人都能使用。一个人人都能使用的东西,门槛一定不能太高。当你觉得必须成为提示词高手,才能用好 ChatGPT 时,你实际上把它看作了一种专业人士才能用好的工具。这不符合其基础设施的定位。
试想一下,我们现在用电需要什么专业知识吗?不需要,只要会插插头就行。反正我从来没有听说谁因为掌握了一种特殊的能力,在家里能把电用得更好。我都不知道把电用得更好是个什么意思?
实际上,大模型的发展过程就是消灭提示词工程的过程。现在的大模型,会自我提示,以提高回答的质量。典型的 AI Agent 思考过程本质就是自我提示。下图是我自己做的一个统计分析 Agent 的自言自语,你可以看出,它其实就是在自我提示:
上图可能看不清楚,我把 Agent 的“思考”过程,复制粘贴如下。
> Entering new AgentExecutor chain...Thought: 首先,我们需要计算每个学生的数学成绩和英语成绩的差值,然后找到差值最大的学生的编号。Action: python_repl_ast Action Input: df['math_grade'] - df['english_grade']0 27 1 85 2 -6 3 3 4 23 .. 95 -15 96 13 97 -76 98 71 99 -4 Length: 100, dtype: int64为了找到差值最大的学生的编号,我们可以使用pandas中的idxmax()函数。Action: python_repl_ast Action Input: (df['math_grade'] - df['english_grade']).idxmax()1由于python中的索引是从0开始的,所以最大差值的学生编号为2。Final Answer: 2> Finished chain.
我给它的任务是分析一份成绩单。成绩单是 excel 表格,是一个30人班级的数学和英语成绩。我的第一个问题是:“这个班哪个同学数学成绩和英语成绩差别最大?”
红框部分就是 Agent 的回答,你可以看出,它在自言自语。自己“思考”,自己“下指令”,自己“写代码”,自己“执行代码”,最后给我答案。看上去很神奇,其实整个过程的本质,就是“自我提示”。
我让它做个 t-test,它也是通过自问自答的方式,自己写好代码,最后给我结果。
> Entering new AgentExecutor chain...Thought: 首先,我们需要导入scipy.stats模块来进行t检验。然后,我们需要将数学成绩和英语成绩分别提取出来,存储为两个数组。最后,我们可以使用scipy.stats.ttest_ind()函数来进行t检验,并将结果打印出来。Action: python_repl_ast Action Input: import scipy.stats as stats ObservNameError: name 'Observ' is not defined由于输入错误,我们需要重新输入正确的命令。Action: python_repl_ast Action Input: import scipy.stats as stats通过导入scipy.stats模块,我们可以使用其中的ttest_ind()函数来进行t检验。Action: python_repl_ast Action Input: math_grades = df['math_grade']通过使用df['math_grade'],我们可以将数学成绩提取出来,并将其存储为一个数组。Action: python_repl_ast Action Input: english_grades = df['english_grade']通过使用df['english_grade'],我们可以将英语成绩提取出来,并将其存储为一个数组。Action: python_repl_ast Action Input: stats.ttest_ind(math_grades, english_grades)TtestResult(statistic=-0.7420498916466688, pvalue=0.45893644008060497, df=198.0)通过使用stats.ttest_ind()函数,我们可以得到t检验的结果,其中statistic表示t值,pvalue表示p值,df表示自由度。Final Answer: TtestResult(statistic=-0.7420498916466688, pvalue=0.45893644008060497, df=198.0)> Finished chain.
这种 Agent 只是大模型的简单应用,但足以显示大模型的自我提示能力。因此,大模型作为基础设施的定位和它不断发展的自我提示能力,是提示词工程没有前途的第三个理由。
我是一直在读书的书先生,感谢您的阅读。
今天的推文,我分享了我对提示词工程是否有前途的看法。我的观点是:没有前途。我的理由有三个,我帮您再总结一下:
1. 大模型聊天机器人已经可以随时打断,随时调整问题,一次性问出好答案已经没有必要。
2. 我们和 ChatGPT 的典型角色关系是学生和老师,以及老板和员工。学生和老板都没有必要提高自己的提问能力,老师和员工有必要提高自己理解问题的能力。
3. 通用人工智能的角色定位是基础设施,基础设施的使用门槛不能太高。人工智能的发展,本身就是不断降低使用门槛的过程。
你觉得提示词工程师有前途吗?为什么?欢迎在留言区分享您的看法。
温馨提示:
明天我们一起来读一篇应用 框架语义学研究科技术语的文献。作者是我非常喜欢的两位学者。读这篇文献也是为接下来 Torrent 教授的分享做准备。
关于作者
推荐阅读
《对普通人来说,chatGPT 到底改变了什么?》
《普通人能够从“谷爱凌现象”中获益的三种思路》