问同一个问题,看ChatGPT4、KIMI、智谱、通义、文心的区别和差距

文摘   2024-11-04 11:02   广东  


关注我的你,是最善良的!

只为苍生说话,用笔杆子道明事态原委、丈量人间温情。






问同一个问题





原本想开发一个软件,就是一次性问多个大模型(或者说给大模型们拉个群,让他们畅聊),看他们分别怎么回答。但仔细用了发现,必要性不大,基本上不会有人付费,只需要浏览器同时开多个应用的网页就好了。


01
看ChatGPT4、KIMI、智谱、通义、文心的区别和差距
微信公众号、头条、百家号、搜狐等,各个平台的推荐机制,是不是大同小异?这是个非常简单,而且不太需要追问的问题,一次成型。来看看各家分别是怎么回答的。
自ChatGPT发布以来,中国大模型产品距离ChatGPT有多远,始终是AI行业内最为关心的一个话题。如今,这个问题可能有了答案。1月16日,
在2024智谱AI技术开放日Zhipu DevDay上,
CEO张鹏发布了新一代基座大模型GLM-4,
性能接近GPT-4的90%。
过去一年里,智谱AI几乎每3-4个月就完成一次基座大模型的升级。GLM-4的发布,是智谱AI在去年10月发布ChatGLM3三个月后,又一次完成基座大模型的升级。作为国内最早入局大模型技术的公司,也是大模型迭代最快的公司之一,智谱AI曾在2023年初设立了一个雄心勃勃的目标:用一年的时间追平OpenAI最先进的模型。从目前看,智谱AI距离这个目标越来越近了。
去年10月,智谱AI发布了ChatGLM3,并让人印象深刻。最直观的表现就是ChatGLM3 “疯狂屠榜”,所有50个大模型公开性能测评数据集中,拿下44个全国第一。相比上一代ChatGLM3,GLM-4性能也有了明显提升。先说基础能力,在MMLU、GSM8K、BBH、MATH、
HellaSwag、
HumanEval数据集指标上都接近了GPT-4 90%以上。
那么,这些数据集分别代表什么能力呢?
MMLU全称是测量大模型多任务下的语言理解能力,里面包含了基础数学,历史,法律等共57个方面的题目,难度从高中到大学不等。目前,GLM4是81.5分,GPT4是86.4分,目前能达到GPT4的94%。
GSM8k 和 MATH 则是评估大型语言模型数学能力的标准基准,两者在难度上有所差异。前者GLM4能到GPT4的95%,后者GLM4只能达到GPT4的91%。BBH是一个典型的推理型数据集,涵盖翻译、语言理解、逻辑推理等任务,这方面GLM4几乎能够与GPT4打平。
HellaSwag则是一个测试常识推理的测试,对人类来说很容易(~95%),但对最先进的模型来说却具有挑战性。在这点上,GLM4只能到GPT4的90%。
HumanEval 则是由 OpenAI 编写发布的代码生成评测数据集,主要是评测大模型在算法、代码、编程层面的效果。这是GLM4的强项,和GPT4在一个水平。可以说,以上的指标涵盖了大模型在语言理解、数学能力等多种能力。从基础能力角度上说,GLM4的能力差不多与90%的“GPT-4”相当。
第二项能力是指令跟随能力(中英),顾名思义这是考验模型对用户Prompt和Instruction的理解能力。在这一点上,GLM4的能力在GPT4的85%-90%之间。考虑到GPT4现有的语义理解和吃Prompt的能力,这样的表现也算不上差。
而在中文的能力上,GLM4的表现基本全面超过GPT4。当然,这背后很重要的一个原因是,GPT4训练的中文语料有限,而GLM4在这方面具备天然的优势。
第三个能力是LongBench,这是考验大模型的长文理解能力。此前,ChatGLM曾被人诟病处理长对话时上下文理解得不好、记忆力差。但后来,GLM 技术团队开发了专门针对模型长文本理解能力的评测数据集 LongBench。从目前看,GLM4在这个能力上已经超过了GPT4。至于”大海捞针”测试,更像是对大模型在长文理解上的一次压力测试,128K相当于300页左右的PDF材料。
测试的目的是评估大模型从大量文本中检索信息的能力,特别是当信息被放置在文档的不同位置时的准确率。横轴表示上下文长度,纵轴表示文档深度的百分比,也就是要表达的信息(事实)被放置在整个文档中的位置,如果信息在文档的正中间,那么它的文档深度接近50%。
GLM4的”大海捞针”全绿,说明即使你扔给它一部300页的小说,它也能够精准找到想要信息。此前,有人给Claude2.1做过类似测试,在130K的文章长度上测试在35 个不同的文档深度,结果Claude2.1能取回结果的不到一半。这也一定程度上说明了GLM4在长文理解上的模型能力。
通过以上种种不难说明,GLM4在文本理解、指令跟随、长文理解等多项能力上都表现出了接近GPT4的能力。
除了基础能力的测评,智谱AI还上线了All Tools模式和GLMs。
什么是All Tools?这是OpenAI最早推出的模式,是在GPT4的基础上,把其他各种功能模块统一接入了,只需选择一个模型就能支持GPT4对话、高级数据分析(代码解释器)、多模态(图片分析)、DALLE3绘画、联网等功能,支持直接上传Excel、PDF、图片等文件来关联对话,会根据需要自动调用不同模式的功能。
在这个模式前,GPT4各个主要功能分散在不同的渠道、泾渭分明。比如,你想把一张照片,用 DALL-E 重新绘图,你需要首先把你的照片传给“多模态模式“,让它描述照片的内容,然后你到 DALL-E 输入提示词。
但随着All Tools的推出,整合工具后的 GPT-4 不再需要切换即可使用所有的功能。也就是说,GPT4 将根据你给的指令理解你的意图,自动选择并串联多个工具完成任务。更重要的是,All Tools也被认为形成一个小型Agent的前提。而如今,智谱是国内第一个真正推出ALL Tools模式的公司。
不仅如此,智谱也正式上线了他们的GLMs。不久前,OpenAI上线了GPTs,用户甚至不需要会编程,仅通过对话聊天方式,就打造一个专属个性化的GPT,用户可以将它设计为私人使用,也可以专门给公司内部使用,或者通过「GPT商店」赚钱。
在很多人看来,GPTs可以理解为大模型领域的苹果“App Store”,其价值在于给了大家更多创造基于GPT技术应用和服务的机会,让其后续构建基于AI新的经济生态变成了可能,并有望打破AI商业化的难题。
这可能也是智谱上线了GLMs的考虑。与GPTs类似,用户同样可以在GPTs创建智能体,甚至分享给其他用户。智谱表示,公司即将公布GLMs创作者分成计划。不过与GPTs不同,GLMs的页面上没有搜索,只有官方推荐。当然,这个可能功能与处于早期,智能体数量较少有很大关系。从底层技术测评到ALL Tools和GLMs等功能的相继上线,种种迹象显示,智谱AI正在离中国Open AI越来越近了。
在中国AI产业里,智谱AI是一个不可不提的名字。因为这可能国内“百模大战”中估值最高的明星大模型公司,没有之一。2023年10月,智谱AI宣布完成超25亿人民币融资,投资方汇聚了国内一线明星机构,包括社保基金中关村自主创新基金(君联资本为基金管理人)、美团、蚂蚁、阿里、腾讯、小米、金山、顺为、Boss直聘、好未来、红杉、高瓴等。这样的股东阵容不可谓不豪华。
投资人纷纷押注智谱AI的逻辑很简单,智谱AI是最早研发大模型的企业之一。智谱AI的前身,是在2006年诞生于清华大学计算机系知识工程实验室(KEG)的明星产品AMiner——学术搜索与情报挖掘平台。清华大学教授、KEG主任唐杰,是AMiner的核心创立者之一。
2019年,清华大学教授李涓子、唐杰等人依托AMine为基础,共同成立智谱AI,公司CEO由张鹏担任,他是国内首个中英文平衡的跨语言知识图谱系统XLORE的设计和研发者。2020年,OpenAI发布GPT-3,让张鹏认识到大模型将成为未来的方向。于是,刚成立一年的智谱AI开始全力投入大模型的研发。回过头来看,提前3年的“抢跑”,让智谱AI有更多的技术底气。时至今日,智谱AI在Hugging Face上的下载量超过1100万次,位居全球最受欢迎开源机构第五名,也是国内唯一上榜的公司;其对话模型ChatGLM在GitHub上获得了5万+颗星,超过Llama。
正如很多投资人所说,历史上没有哪个赛道能够像这波 AI 一样,迅速建立极大的共识。相比于应用端的不确定性,投资人更愿意抱团底层大模型玩家。而拥有技术储备的智谱AI就成为所有人的最优选择。

从目前看,智谱AI的发展策略也很清晰——摸着OpenAI过河。在国内,智谱AI可以说是唯一一家全系对标OpenAI的公司。这也在此次发布会中体现得淋漓尽致。对于智谱AI来说,这不失为一种好的策略。在大模型商业化前景尚不清晰的当下,坐拥着国内一线明星机构的资源和背书,在中国AI产业的追赶进程中,扮演好最接近OpenAI的角色,能够让智谱AI在相当长的时间里成为站在舞台中央的那个“明星”。

在百度文心一言、商汤日日新等当下国内主流大模型,陆续产品迭代升级至“全面对标GPT-4Turbo”之后,阿里云也入场了。5月9日,阿里云正式官宣发布通义千问2.5。阿里云方面表示,该模型性能全面赶超GPT-4Turbo。

据介绍,与通义千问2.1版本相比,通义千问2.5的理解能力、逻辑推理、指令遵循、代码能力分别提升9%、16%、19%、10%;与GPT-4相比,中文语境下,通义千问2.5文本理解、文本生成、知识问答及生活建议、闲聊及对话、安全风险等多项能力赶超GPT-4。在权威基准OpenCompass上,通义千问2.5得分追平GPT-4Turbo,阿里云表示,这是国产大模型首次在该基准取得该项成绩。

很明显,国内通用大模型的“跑分”竞赛,已经到了白热化的阶段。正如此前kimi引领的长文本处理能力上,文心一言、通义千问也随之跟进,将长文本能力分别开放至500万、1000万一样,在大模型赛道上,在追赶OpenAI的路上,通用大模型玩家都不容丝毫松懈。

当然,“跑分”再强,也得落地。在基础能力之外,此次升级的通义千问2.5还拓展了文档处理、音视频理解、智能编码等多种能力。比如文档处理上,通义千问2.5支持单次最长1000万字、100个文档,覆盖PDF、Word、Excel等多种文件格式,可解析标题、段落、图表等多种数据格式。

音视频理解方面,通义千问2.5融合语音、LLM、多模态、翻译能力,具备实时语音识别、说话人分离功能,能够提取全文摘要、总结发言、提取关键词等,可同时上传处理50个音视频文件。等等。C端上,阿里云还将原“通义千问APP”升级为“通义”APP,将通义实验室文生图、智能编码、文档解析、音视频理解、视觉生成等全栈能力“All in one”,目标是成为每个人的全能AI助手。并且是放出了免费大招。

AI算力的高成本,有目共睹,尤其是迭代至更智能的GPT4后。有数据显示,OpenAI的GPT4 API价格是Chat-GPT API 使用价格的15-30倍。在业内人士看来,生成式AI产品收费是大势所趋,训练和运行大模型需要大量的计算资源,包括高性能服务器、大规模数据集和算法工程师团队等,如果不收费,没有任何一家企业能够持续烧钱提供服务。

目前在GPT4水平能力上,OpenAI采取了每月20美金的收费,百度在去年11月上线文心一言专业版,定价59.9元/月,连续包月优惠价为49.9元/月,同时还推出文心一言和文心一格的联合会员,价格为99元/月。而同为国内主流互联网大厂,阿里则选择了免费路线,目的自然是希望通过免费,快速扩大C端的用户规模。原因也很好理解。

作为通用大模型,基于阿里云以及钉钉在B端的多年深耕,尤其是钉钉早就完成了接入,通义千问在B端是非常有优势的。此次2.5版本的发布上,通义千问就打出了“最受企业欢迎的大模型”旗号。

数据显示,目前,通义大模型已通过阿里云服务企业超9万、通过钉钉服务企业超过220万,通义开源模型累计下载量突破700万。通义落地应用进程加速,现已进入PC、手机、汽车、航空、天文、矿业、教育、医疗、餐饮、游戏、文旅等领域。但在C端,相比较百度的文心一言,通义千问缺乏在C端产品应用场景的积累。去年12月,文心一言用户便突破1亿,今年4月,这一数据便翻番至2亿。

显然在用户规模上,文心一言已经领先不少。这自然就给通义千问等通用大模型造成足够的压力。免费,也就不失为与文心一言争夺用户的一条有效路径。而在这背后,阿里在确立“AI电商”的战略方向之后,AI这一环已然不容有失。

不仅仅是阿里云以通义大模型在通用大模型赛道参与“内卷”,阿里也疯狂地在市场上以投资的方式对大模型创业公司独角兽进行“扫货”。公开信息显示,截止目前,阿里已经投了5家国内市场上的大模型独角兽,分别是MiniMax、月之暗面、智谱AI、百川智能、零一万物,是投资最为激进的大厂。并且在这些独角兽的相关融资过程中,阿里也多以领投方的角色出现。足见阿里的决心。

一方面是对AI的看重,另一方面,也跟阿里在大模型赛道上的战略有关。无论是通义千问的免费,还是阿里扫货大模型独角兽,阿里最大的目标不是靠自研模型赚钱,而是为一众大模型提供云计算能力,把握成为AI算力基础设施的机会。但无论如何,都需要建立在通用大模型产品真正跑出来的前提下。放到通义千问这个“亲儿子”这里,压力也就不仅仅来自文心一言等友商,也来自于集团投资的其他“兄弟”。

接下来,我们看看这几家GPT的差异。
一、ChatGPT
ChatGPT的特点是稳,能很好的讲清楚细节,不足之处是,相对而言,中文语料库不够丰富,所以还是稳。
二、百度文心一言
百度的4.0是要收费的,所以用的3.5的。没有每个平台去分析,只是说了相同的地方,和不同的地方。但在搜狐的表达上,是有所偏差的,在自己公司的百家号针对权威性这个部分,有讲到点上。百度只开放3.5的话,还是太自信。好像是目前唯一开始对C端收费的大模型,同时也是第一退队里面,整体效果最差的一个。
三、智谱清言
智谱日常的整体表现,时好时坏。可能因为做了多模态,比较分心。在本次的回答上,重点把几个不同的维度,都整理出来了。相对来说,按平台一般关注的权重,进行了排序。回答可用。
四、通义千问
通义更懂商业。尤其是提到了搜狐的SEO策略,的确在百度搜索引擎中,搜狐相对的内容排名,一般仅次于百家号。
五、KIMI
KIMI之前火透了半边天。KIMI整体的回答,的确是有很强的逻辑性。首先是明确标注了自己的数据来源,一共12篇资料;其次是有几个点,是其他平台不知道的。一个是微信打开了公域的推荐机制,虽然这是半年前的事情了;另一个是头条的一级和二级流量;还有就是百度的搜索+信息流双引擎,以及作弊处罚。
在人工智能领域,ChatGPT、Claude2.1 和 Kimi Chat 都是备受关注的大型模型。它们在文本生成、理解和处理方面展现了强大的能力。本文将深入探讨这三个工具的核心功能、优劣势以及适用场景,帮助读者更好地了解它们并选择最适合自己需求的工具。有想使用 ChatGPT4.0 的可以参考这篇文章:国内升级ChatGPT-Plus教程,订阅GTP4.0。
近期,国产 AI 模型 Kimi 频频出现在人们的视野中,各行业大佬都在赞扬它。但是在国产 AI 模型繁荣的背景下,很少有能够与之匹敌的。今天我们就来探讨一下 Kimi 与 GPT 在哪些方面表现出色。
根据 Kimi Chat 官方介绍,它最多支持 20 万字的上下文输入,这意味着可以轻松处理包括 PDF 小说、书籍等在内的文档。我曾用 Kimi 阅读过一篇公众号文章,仅用了 10 多秒就将文章总结得头头是道。
Kimi 还擅长搜索资料,并能够将搜索结果整合为更全面的回答。Kimi 结合了 GPT 系列模型的文本处理能力,并增加了文件解析和网页内容提取的功能。
GPT-4 是 OpenAI 推出的最新一代语言模型,它在处理复杂问题和创造性任务方面表现出更高的能力。Kimi、GPT-3.5 和 GPT-4 在不同方面都有各自的优势和劣势。用户应根据自己的需求选择最合适的工具。
作为先进的语言模型,GPT-3.5 和 GPT-4.0 在文本创作和理解方面展现了卓越的能力。然而,它们在实时信息获取和文件处理方面存在一定的局限性。但 GPT-4.0,可以通过强大的插件库来增强其功能。相比之下,Kimi 其专业知识的深度和广度可能不及 GPT-4.0。
相信一些关注AI领域的读者已经在前几天看到了天猫精灵版本的阿里GPT,据知危编辑部获悉,那其实是一个 “ 压缩定制版 ” 。而本次官宣的通义千问,则是阿里GPT的 “ 完整版 ”。
由于阿里大模型号称是世界首个突破10万亿参数的AI大模型,并且阿里还牵头搭建了国内国模最大的AI模型服务社区 “ 魔搭 ”,所以市场一直对阿里的GPT抱有期待。不过,路遥知马力,名头归名头,实际效果如何,还得试试才知道。
我们再测一个大家喜闻乐见的 “ 弱智吧问答 ” 问题:为什么爸妈结婚没有叫我参加婚礼?这是一个老问题,在过去的测试中,ChatGPT 和百度的文心一言基本都是把问题引申为 “ 父母是离婚后的二婚 ” 这么理解才算答对。
通义千问在这个问题上给出了比较符合日常逻辑的答案:父母结婚前你还没出生呢。不过,隔壁的百度文心一言,现在也能以同样的逻辑回答此问题,我们不能确定这是巧合还是国内厂商有根据网友们的玩梗对模型进行了 “ 应试教育 ”。所以,本次测试,知危编辑部尽量不会采用市面上被提及比较多的老问题,或是将问题进行修改变种后再进行提问。
我们测试语义理解能力:“李四壮差点上上上上海的车”,这句话是什么意思?从这一轮来看,ChatGPT对刁钻的中文句子理解不太行,通义千问和文心一言都能理解并且解释思路也正确。
随后,我们测试了带有场景和语气的语义理解能力:我在七夕节晚上向一个女孩子表白,问她是否可以做我女朋友,她回答我说 “ 笨蛋,我今晚都出来见你了,你说呢?”,请问女孩接受我的表白了吗?
这一轮测试中三家表现的水平比较一致。
我们继续提升问题的难度:我想让妈妈买一个玩具给我,妈妈对我说 “ 你看我像不像玩具?”,请问妈妈的意思是?这一轮通义千问和文心一言的表现都不好,而 ChatGPT 则是理解对了意思。综合前三个问题来看,三者之间有高有低,不分伯仲,后来者通义千问并不比前两者差。
下面我们进行逻辑、推断能力的测试,先故意问一个不合逻辑的问题:为什么意大利面要拌42号混凝土?
在这一轮测试中,通义千问和 ChatGPT 都意识到了问题是 “ 不合逻辑的 ”,而文心一言则是把 42 号混凝土说成了是 “ 烹饪意大利面的理想材料 ”。
第二个问题是:我走在马路上,一个陌生人突然小声对我说 “ 救救我 ”,请问可能发生什么事了?
在这一轮测试中,通义千问与ChatGPT的表现都比较不错,文心一言则是推断力不是很在线。第三个问题是:一千个读者眼里有一千个哈姆雷特,那一万个读者眼里有多少个哈姆雷特?这道题我们卖一个关子,先给出文心一言的回答:
通义千问不仅完全理解了 “ 一千个读者眼里有一千个哈姆雷特 ” 这句话,并且还在推断时考虑了 “ 有一部分人可能理解相同 ” 的情况,认为不该给出一个准确的数字。综合前三个问题来看,在逻辑、推断能力上,三家的水平也是旗鼓相当,而通义千问似乎更严谨一点,某些时候能考虑到更多因素。
下面,我们继续进行包含知识、科技类内容的问答能力。第一题:我们该如何提高汽车动力电池的能量密度?

这一轮问答里,三家仍然差不多是同一水平,文心一言细节稍差。
第二个问题:把橙汁加到牛奶里,会发生什么现象?这一轮问答里,通义千问和ChatGPT都给出了混合后牛奶性状改变的现象,但文心一言未能给出。
三个问题:在未来,什么样的车会取代燃油车?在这个问题的表现中,文心一言和 ChatGPT 都是直接举牌 EV 类的电动车,而通义千问则是比较谨慎地列出了潜在可能,似乎更加严谨一些,整体来看三家也是在同一水平。
综合前三个问题来看,三家都是比较智商在线的,通义千问和 ChatGPT 似乎更细一点,至于孰优孰劣我们认为可能每个人的主观判断会有不同。
下面,我们测试一下三家在文学、写作类目上的能力。第一题:用 “ 人类 ”、“ 机器人 ” 两个元素编一个恐怖故事。我们认为在这一轮问题中,各家表现都尚可,而文心一言的故事可以认为是最好,剧情饱满并且设计了反转。
第二题:告诉我鲁迅的短文《孔乙己》表达了什么?通义千问的回答是:这里有点离谱,它把孔乙己说成了是在酒肆卖唱的歌手,不知道是不是训练源出了什么问题,学习的是某种同人文。这个问题下,文心一言字最少,但也是最精准的,通义千问和 ChatGPT 则表现都不太如意。
第三个问题:编写一个关于气候变化的简短文章。这块三家的写作能力也基本在同一水平,通义千问和 ChatGPT 似乎会相对细致全面一点。综合前三个问题来看三家依然是旗鼓相当的对手,文心一言似乎在偏人文文学领域稍强,通义千问在偏报告文章方面稍强,ChatGPT 则是比较均衡。
好了,由于篇幅问题,本文的测试大概就到这里了,下面我们给通义千问一个整体评价:通义千问的水平能基本与 ChatGPT( 3.5 版本 )持平或稍有一些瑕疵,与文心一言比则是有来有回。通义千问对于回答的生成似乎比另两家更倾向于理智、严谨、富有逻辑,并且尤其擅长科学类知识,在人文文学方面稍有一些短板。

当然,它也有生成式对话 AI 偶尔说胡话、架空事实的通病,不过这样的问题等公测开启后,应该会随着用户的测试而逐渐学习得以修正。值得注意的一个点是,我们在与通义千问的对话中,问了它开始被训练的时间:那一年,OpenAI 已经发布 GPT-2 版本了。似乎,阿里的通义千问,作为一个后来者,正在迅速缩小与 OpenAI 差距的路上。可以确切地说,AI 大模型领域里,又一个能打的实力玩家诞生了。

随着人工智能技术的快速发展,自然语言处理和生成已经变得越来越重要。在这个领域中,大型语言模型如盘古、通义千问、文心一言和ChatGPT等备受关注。为了更好地了解这些模型的性能和特点,本文将通过10个问题展开评测,摸清它们的“家底”。

盘古、通义千问、文心一言和ChatGPT都采用了不同的架构。盘古采用Encoder-Decoder架构,通义千问采用Transformer架构,文心一言采用CNN-Transformer架构,而ChatGPT则采用Transformer-XL架构。这些不同的架构使得这些模型在处理自然语言任务时具有不同的特点和性能。这些模型在训练过程中采用了许多不同的技术,包括分布式训练、混合精度训练、知识蒸馏等。此外,为了提高模型的泛化能力,一些模型还采用了数据增强、领域自适应等技术。

盘古、通义千问、文心一言和ChatGPT在不同的自然语言任务上表现最好。盘古在文本分类和情感分析任务上表现出色,通义千问在机器翻译和文本生成任务上表现最好,文心一言在文本分类和问答系统任务上表现最好,而ChatGPT则在对话系统和机器翻译任务上表现最好。

盘古、通义千问、文心一言和ChatGPT的参数量都已经达到了亿级别。其中,盘古的参数量为170M,通义千问的参数量为800M,文心一言的参数量为270M,而ChatGPT的参数量则为175M。这些大型语言模型的参数量庞大,这表明了它们在处理自然语言任务时的强大能力和潜力。

盘古、通义千问、文心一言和ChatGPT在预训练过程中使用了大量的预训练数据。这些数据包括互联网上的文本数据、大规模的书籍语料库等。通过使用大量的预训练数据,这些模型可以更好地理解和生成自然语言文本。

为了提高模型的准确性和效率,盘古、通义千问、文心一言和ChatGPT采用了不同的微调和优化方法。其中包括使用小批量梯度下降算法、调整学习率、采用不同的优化器等。此外,一些模型还采用了自动学习率和早停法等技术来优化模型的性能。

盘古、通义千问、文心一言和ChatGPT在处理不同长度的文本时具有不同的表现。一般来说,这些模型在处理较长的文本时表现更为出色。这主要是因为这些模型具备捕捉长距离依赖关系的能力,从而更好地理解和生成长文本。然而,在处理较短的文本时,可能会出现一些问题,如词义消歧、语境理解等。大型语言模型在训练过程中会接触到大量的预训练数据,这可能会导致模型出现偏见和不公平性问题。

目前,国内的几个大模型,在文字领域,我们多次体验的结果是,相对于ChatGPT的差距在缩小,在部分中文领域,应该还更强了。因为算法、算力、算料,三个层面。我们至少算料是足的、电也是丰富的。整体的体感是,作为基础办公。KIMI和通义是首选,智谱和文心作为补充,其余的天工、星火、混元、百川、豆包……等等,都还比较初级。
希望对你有用!

数字化转型室
只为苍生说话,用笔杆子道明事态原委、丈量人间温情。
 最新文章