某C刊论文遭批!网友呼吁这些自以为懂 AI 和懂 GPT 的“学者”们不要再写这种错误百出的文章占用 C 刊版面了

文化   2025-01-14 11:27   加拿大  

本文为转载自学术痴公众号文章。


“学术痴”公众号按:
C刊《中国文艺评论》2024年第12期上发表的论文《生成式AI的语言想象:影像叙事的未来在哪里?》遭到了网友的严重质疑与批评。小红书博主

Prismo”发表《论GPT却不懂GPT的C刊水文能不能别丢人了》一文对上述那篇论文提出批评。该博主希望“这些自以为懂 AI 和懂 GPT 的‘学者’们不要再写这种错误百出的文章占用 C 刊版面了”!

现附该博主文章如下:

学术痴公众号注:该图为该博主文章的配图


我求求这些自以为懂 AI 和懂 GPT 的“学者”们不要再写这种错误百出的文章占用 C 刊版面了居然从作者到三审三校的编辑都没看出这些低级错误?就单说这段话里的问题:


1. GPT的中译是生成式预训练变换模型,作者把 Transformer 理解/翻译成「变压器」我真的没想到;而且「预训练」和「训练」是两个完全不一样的概念。


2.「生成扩散模型(GDN)」这种说法也就骗骗文科编审,即使这里的「生成扩散模型」指的是GDM(Generative Diffusion Model),它也不是一个通用术语。一般我们会直接用Diffusion Models,或者 DDPM。


3. 我实在不理解文中说的 GPT 是怎么能够对「电影文本」「逐帧进行深度学习」 的。何曾有过「一帧文本」这个量词用法?如果这里的「一帧文本」指的是影像,那 GPT 现在根本不具备直接分析视频进行拉片的能力。并且,作者显然完全不懂「深度学习」作为一个规范术语是什么意思(通过多层神经网络从数据中学习特征和模式的机器学习方法)。深度学习是一种训练方法,而不是分析数据的步骤,GPT 在推断阶段只处理输入数据,不会进行深度学习。作者连训练和推断的区别都没有意识到。


4. 说 GPT 生成的剧本可以「无限接近于人类的创作水平」,足以说明作者既没有什么文本鉴赏能力,也对 GPT 没有什么实操经验。


5. 怎么能把 GAN、DM、GPT 这几个东西并列到一句话里的?


6. 文章说「生成式AI能够依赖其背后庞大的数据库」 ,能不能请作者先搞清楚「数据库」和「训练数据集」的区别再写这篇文章?


最后,就算作者写完这篇大作之后,把它丢给 GPT 让其检查一下里面的知识性错误,也不至于写出这篇看起来都是黑话颇有道理其实完全站不住脚的文章。任何一个有计算机科学和相关学科领域经验的读者看了都会知道这篇文章完全就是胡扯。在这种情况下,当那些对技术一无所知的人文学科学者们扎堆大论特论 AI 的创造力与主体性时,其实根本就是在虚空索敌,设立出一个幻想中的「AI」进行批判。这种关于 AI 的自嗨文章完全是一种自以为是的自娱自乐,不具备任何生产和批判价值。


——————

——————

原文链接:

http://xhslink.com/a/UfYZrvwPlO12


 

语言春秋
人是会讲语言的动物,语言之于人的重要性,如同空气、粮食之于人一般。本草根小号旨在传播与语言及以语言为载体的雅俗共赏的那些事儿。
 最新文章