井老师
读完约需要
文末可留言
最近,我在两三个微信群看见了两张图片,说的是某个强奸犯出狱后,当上了某国字头银行的团委副书记。那起强奸案在十多年前轰动一时,影响恶劣。
有张图片是AI问答的截图,而这AI是国内某臭名昭著的搜索引擎公司的产品。下面的图片是截图的一部分,我将人名和银行名称打上了马赛克,“于2023年出狱”的下划红线也是我加的(下文会提到)。
按说,不论是这家公司,还是那强奸犯所代表的利益群体,我都是要“敬而远之”的。作为吃瓜群众,对这种“以毒攻毒”的典型案例,看个乐子就好,没有为之澄清的必要。但这事却另有好玩的地方,因而写了这篇文章。
微信群内,有群友引用了这张图片,提醒了发图的群友一句:“同名同姓而已”。
那发AI截图的群友回应:“而已的有几个?”
以我的理解,那位提醒者是想说,银行的书记和强奸犯是两个人,这AI搞错了,将这二人嫁接在一起了;而发图的群友回应则是想说,哪有那么多同名的人?意思是AI没错,那就是同一人。说来也是,因为AI明确地说了:“出狱后,XXX的生活轨迹发生了变化,他目前担任……”
当然,以上只是我个人的理解,特别是后一位群友的意思,我的理解不一定对,毕竟,他是提了个问题 :“而已的有几个?”
但是,这恰恰是精彩的地方 ——
当有人说AI搞错了,那是两个人,他们是同名同姓。按通常的逻辑,自然是去确认下是否真的是两个人。这只需要在互联网上搜一下,不就知道答案了吗?
但中式逻辑思维不是这样的,他们另辟蹊径,而是想确认叫这名字的人有多少个!
—— 你还不能说这种思维就是一脑子糨糊,因为只要这个问题的答案是“一个”,那不就说明不存在同名者吗?也就证明了他是正确的。
但是,若是你跟着他的思路走,真的想着去搞清楚14亿中国人里有多少个叫“XXX”的同名者,那就被他绕进去了。
我搜索了这银行书记的信息,百度百科的XXX词条下显示:
至此,可以得出初步的结论了,AI出现了错误,因为它明确地说了XXX“于2023年出狱”,而这同名人的词条下显示“2022年4月”受到了表彰。再往下查个人履历或照片,就能进一步确认了。
从那微信群内的交流可以看出,这种思维者有一个鲜明特征,那就是不直面问题,而是喜欢用迂回的策略将水搅混,从而转移焦点。他们的回应看似有一点相干性,但这种迂回不是想包抄,而是为了扯远。他们想让你走很远的路,从而忘记当初是为什么出发的,因为扯着扯着,你便忘记了最初的问题。
这种思维者的另一个特征是他们极少认错。这是有底层逻辑的,因为直面问题很可能立马分出对错,而他们又不是能认错的人,这就使得他们一旦预感到即将的挫败,就会下意识地迂回。
其实,谁能不犯错呢?尤其是这个信息爆炸的社交媒体时代。常在河边走,难免一时性起,顺手转发了段图文,总有湿足甚至失足的时候。自己尴尬一下,然后为误导了别人道个歉,再顺手感谢一下那些指出错误的人,这事不就过去了吗?但可叹的是,有些人是不会错的,也不能错。这种人在简体中文圈是有大把大把的存在,我将其成为“中式逻辑思维者”,指缺乏逻辑思维能力,不喜欢直面问题,更难以做出认错姿态的人。
他们参与讨论不是为了把事情搞清楚,而是想证明自己正确,这是中式逻辑思维者的底层驱动力;吝于认错,于是不喜欢直面问题,对于反面的证据装作看不见,因而经常见他们迂回,顾左右而言他,这是他们的外在表现。这种底层驱动力和外在表现相互强化,使得他们在逻辑思维能力上难以提高,即便他们经常辩论。
最后,说说如何使用AI(可能是这篇文章的价值所在),顺便再探讨下“中式逻辑思维者”用惯了这种国产AI会怎样。
如何使用AI,是大话题,本文只想谈及一方面:如何向AI提问。这也是针对文章起始所引用的AI截图而言的。
提问者输入的是“某某某现任” —— 这是垃圾式的提问,因为这句表达是不完整的,就更别说表达充分了。哪怕是问“某某某现任什么职务?”也好歹算是将句子写完整了。
在计算机领域,有一句经典的惯用语:Garbage in, garbage out(缩写:GIGO)。通常翻译为:“垃圾进,垃圾出”。有句戏谑之言是据此演进而来:“输入的是垃圾,输出的只能是垃圾,无论多努力”。
这里举个教育领域的例子,也可以用这个例子来理解现在AI(语言大模型):若一个学生整天学习的是垃圾教材,被教授的是垃圾的知识,那么,无论他多么努力,所输出的必然是垃圾。
不妨将语言大模型所采用的算法类比成学生的大脑,训练模型时所用的数据集则相当于学生的学习材料。一个学生优秀与否,除了与他的脑子好不好使有关系,还与他学习的材料有关。因此,对于模型来说,若训练时输入的数据是垃圾,那这AI输出的答案也是垃圾。
当前,某些AI在进行训练模型时“加了料”,但你又想使用他们减轻一点工作负担,于是便没得选,不是用王八就是选乌龟,这时你就更需要注意你的提问方式了,因为对于既定的语言大模型,也同样是“垃圾进,垃圾出”。
对于“某人现任什么职务”这样的问题,由于(可能)存在重名者,这就使得问题是不明确的,这种提问便是垃圾的输入。虽然有时AI能答对,但他是根据概率最大的那个来猜的。
所以,要想AI输出更加优质的回答,你的输入就应该更具体、更准确。比如:“著名歌唱家AAA和BBB的儿子XXX,现在担任什么职务?”在当前的表达中,我利用了XXX的父母排除了他的同名人。
上面已说过,AI回答问题的质量受多个因素的影响,即便你的提问很清晰,但这学生回答得如何,还取决于他的脑子好不好使。比如开篇截图中的AI,在明知XXX到2023年才出狱,而另一个同名人早在2022年4月便是某银行的共青团干部,并获得了全国性表彰,AI却将这二者混为一谈。这就属于推理出错,是脑子不好使的表现。
也就是说,即便你提出的问题够清晰,但交给脑子不好的学生,可能难以得到满意的答案,更何况,这些学生还学习了大量的垃圾。但话说回来,如果你只有这样的学生可用,而又希望他能帮你干点活,减轻一些形式主义的负担,那你就应该从清晰地描述问题开始。
句式完整,清晰且充分地描述你的问题(然后追求简练),这是交流的基本原则,对所有的AI都适用,同样,也适用于人。 多说一句,我认为这也是小学生作文的训练方向:清晰且充分地表达学生的所思所想。
下面是我问微软的必应(Copilot),它给出的回答。
看起来,这Copilot是知道什么就说什么,不但纠正了我写错了的姓氏,表达也更为精准:“在2013年因强奸罪被判处有期徒刑10年”。而那国产AI是这样表达的:“他曾在2013年因涉嫌强奸罪被判刑10年” —— 这XXX都判刑了,也服刑出狱了,居然还是“涉嫌”?再次印证了这AI的脑子不好使。
当“中式逻辑思维者”用上了这种国产AI会怎样呢?大抵是悟空喜得金箍棒的心情,总体“如意”,遥遥领先。
由于AI能直接给出答案,这简直是福音,尤其是对那些惰于思考或缺乏思考能力者而言。就拿开篇的案例来说,本只涉及事实层面的查证,是不费气力的事,但有些人就是不肯搜索一下,而是在“同名的有几个”这种问题上浪费时间,这说明他们探索和求真的欲望是不高的。而AI本也是擅长回答已经确知的问题,比如事实层面的知识。所以,当这二者相遇:一个不喜欢思考,怕麻烦,另一个擅长给出答案,可不是一拍即合,对上眼了吗?
当下AI还不够成熟,但可以想见一下不远的未来:当自主搜索网页的方式逐渐暗淡,进入了AI问答的时代,中文互联网将会是什么样子?
一些人的思维能力必将越来越糟。
因为AI将是知识权威的形象,一如小学课堂上的老师。而那些中式逻辑思维者会成为AI的复读机,就像现在某些孩子,他们将死记硬背的知识点写在试卷上,至于为什么这么写,这种答案到底对不对,他们是不关心的,而是老师说对便是对的。
AI本可以成为人类很好的工具,为人类所用,但对于缺乏思维能力的人,尤其是缺失思考动力的人,他们将沦为AI的工具,因为AI说什么,他们就信什么。他们生产不了知识,而是AI的搬运工。
推荐阅读:
👉 1. 没有教不好的学生,只有不会教的老师?
👉 2. 期中考试前,我给儿子剃了个大光(一)
👉 3. 我帮孩子改了篇作文(之一)