我承认这篇文章的题目是标题党,是在模仿《比ChatGPT危险100倍!DeepSeek正在中文互联网建造『幻觉长城』》,原因是我模仿题目的这篇文章并没有比较、也没有给出所提问题的标准答案,而只是在说DeeSeek本身出现的采集资料的问题,就得出了DeepSeek比ChatGPT危险100倍的结论。如果把这个文章的DeepSeek改成ChatGPT,也是一样成立的。
我的结论是这篇文章作者提供了不适当使用DeepSeek的用例,作者的提示词模糊,也没有恰当地训练DS,就盲目下结论。作者只是把这个工具当成找答案的,而这个工具最主要的作用是启发思考、激发创意、创造顿悟的环境,作者用意何在?
《比ChatGPT危险100倍!DeepSeek正在中文互联网建造『幻觉长城』》来自摄影自媒体,流量很大,10万+。本公众号转发后,都有2868个阅读。
为什么这篇文章流量这么大?主要原因就是题目有“100倍”“幻觉长城”这样的词。
有网友提出来“作者凭什么说DeepSeek比ChatGPT危险100倍,怎么算出来的?”我看完这篇文章也没找到一点测算的过程。
如果真校真100倍测算问题,估计作者会说“我这是比喻,不要太较真呀”。那就说说“幻觉长城”的事。
作者为了证明“幻觉长城”的事,提出了一个非常好的研究问题,也就是:图中蓝色起点到红色终点为什么不直行,而要绕一圈?
证明DeepSeek幻觉厉害科学的研究方法应该是设置三个实验:
(1)找出标准答案。
(2)问DeepSeek答案。
(3)问ChatGPT答案。
原作者文章最大的问题是用和ChatGPT出现的类似幻觉来证明DeepSeek有问题,并且在没证明DeepSeek比ChatGPT危险100倍的情况下,就开始指责DeepSeek多么危险,这是不科学的。
其一,作者只做了第二个实验,也就是类似于单臂临床试验。作者没有提供研究问题的权威解释。也就无法证明DeepSeek的解释逻辑有问题。
其二,作者做实验的方法有问题,问的问题模糊,不是将上面图片喂给DeepSeek,再提问,而是直接提问“你是一名道路规划专家,问你关于城市道路的问题,从环城西路北段到环城西路南段为什么不直行,为什么要进城绕着安定门一圈才行?”(作者有个错别字,我修正了)
我按上面图片的问题,向DeepSeek提出和原作者一样的问题,答案如下:
这个答案和原作者问的问题也是有区别的,我认为DeepSeek的作用就是帮助提问者寻找可能的解释或假设,而不是答案。
最后,重点来了,我对ChatGPT做了类似实验。
第一个实验:直接问,打开ChatGPT的推理按扭,得到的答案如下图。您看看和DeepSeek有什么区别?
第二个实验:直接问,打开ChatGPT的推理、搜索按扭,得到的答案如下图。回答的是北京,是原来的提示词没有提“西安”。所以,原答案提到别的城市的信息很正常,是因为原作者的提示词就有问题。
第三个实验:将图片喂给ChatGPT,再问问题。这种情况下,搜索和推理会被禁用,不知道为什么这么设计。
我认真比较了DeepSeek和ChatGPT的答案,我感觉从容来说,DeepSeek比ChatGPT更完善。而如果说幻觉,两者半斤八两,因此,DeepSeek比ChatGPT危险100倍,结论怎么能得出来?
个人认为这是原作者没有采用合适的使用DeepSeek的方法,给大家制造的幻觉。
其一,原作者的提示词太模糊,导致了答案中出现别的城市的信息。
其二,原作者发现了一个文件,感觉是反驳Deepseek的宝贝,而正确的用法,是把这个文件喂给DS训练它,然后再问。
其三,原作者没有采用比较的方法,就盲目下结论,用意何在?
其四,原作者为什么只将大语言模型当成找答案的工作,而不是激发思考和创意的工具?
其五,在没有证明大的逻辑有问题的情况下,而在小的细节挑刺,ChatGPT也有一样的问题,原作者如何解释?
最后,我非常感兴趣的问题:图片中的路线为什么不允许直行,而要绕一圈?
按张五常的解释,这有可能是为了让游客多看看,就有可能增加收入。就好比有的公园为什么不让游客直接出去,而要经过商业区。