用好大模型,让前端开发效率如火箭般一飞冲天!

科技   2024-10-15 17:23   广东  

团队需求

随着公司开发团队越来越壮大,想要在壮大的同时提升整个团队的开发效率,需要在市面上挑选一款好用的工具来辅佐整个团队

是的,大家第一时间想到的就是AI大模型产品吗,大家都懂,想要访问国外的大模型产品比较麻烦,且国外的大模型产品未必就符合咱们国人的口味和习惯,只有国产大模型才更懂中国人,因此我选择了大模型 GLM-4-Plus !!智谱在近期发布的若干更新模型,以基座⼤模型 GLM-4-Plus 推出为标志,全模型家族正式上线 bigmodel.cn!!!


GLM-4-Plus 首当其冲!

于是对市场上的国产大模型进行了调研,并找到下面这张SuperBench⼤模型评测排名图,图中前二都是国外的,而第三名就是国产的 GLM-4-Plus 大模型,在这一次排名中,GLM-4-Plus 打破了此前国外模型垄断前三甲的 局面!!!

那么 GLM-4-Plus 大模型 是何方神圣呢?它是 智谱 发布的一款 基座大模型,新基座⼤模型 GLM-4-Plus,号称是智谱迄今为⽌最强⼤的模型,成为智谱全模型家族坚实的能⼒底座!!!

网站:https://bigmodel.cn/console/modelcenter/square

进入网站之后可以发现 智谱 发布了很多大模型,而 GLM-4-Plus 首当其冲放在了第一位,无疑是当前最最最热门的大模型啦!!!

体验 GLM-4-Plus

点击 体验 即可体验当前国产最强大模型 GLM-4-Plus

解决程序员的烦恼

作为程序员,我们使用 GLM-4-Plus 当然是想让它来帮我们解决难题和烦恼啦~那么请想一想,我们程序员的烦恼都有哪些呢?我总结一下,无非就三个:

  • 1、代码不知道该怎么写
  • 2、代码看不懂啥意思
  • 3、代码报错找不出原因

而从这几天的体验下来,我觉得 GLM-4-Plus 真的能很好地去帮我们解决这三个烦恼,我将通过三个场景来为大家展示他究竟有多么的强大!!!

场景一:用 Vue3 写一个倒计时组件

我想用 Vue3 写一个倒计时组件,于是直接问 GLM-4-Plus,而它也能给我一个很完美的答案,并将代码直接呈现到你面前,你只需要复制粘贴,即可实现一个倒计时组件~

场景二:维护别人的代码,看不懂

团队中互相维护他人的代码是很频繁的事情,并不是每个人都有写注释的习惯的,所以这个时候就可能发生看不懂他人代码的问题,而如果你去找对方询问的话,沟通成本会有点高,所以可以让 GLM-4-Plus 来帮我们解释代码~

就比如下面这段代码,可能一部分人一开始看不出这些代码的含义

如果你看不懂,你只需要把代码复制到 GLM-4-Plus 对话框中,让它帮忙解释下,它就能帮你解释的清清楚楚,非常详细!!!我从没见过一个解释代码这么详细的大模型!!!


场景三:代码报错了,但是找不出原因

其实排查代码报错是一项技术活,经验老道的程序员可能很快就能排查出原因,但是对于一些新手程序员来说,可能排查半天都排查不出来原因,比如下面这段代码,其实 isObject 判断数组和对象时,返回的都是 true,所以这段代码是有误的

而当我询问 GLM-4-Plus 之后,它也马上给出了正确的意见,这一点真的非常强大

并且它还给出了改进后的示例代码,真正做到帮助程序员提高效率!!!

文件分析

GLM-4-Plus 还有一个很强大的功能,那就是 文件分析,有时候我们程序员在拿到一个文档文件时,就非常烦恼,因为文件中的东西实在是太多,我们恨不得有人能总结给我们听

而 GLM-4-Plus 就有 将文件嚼碎,并说给我们听 的强大功能~就比如我上次将内部的一份前端文档交给 GLM-4-Plus,让它帮我总结,它就总结的非常的好!!!

点击文件上传按钮即可,不止是PDF,还能上传 Word、Excel、PPT、图片、txt、视频 等等

如果你想要让它帮你做一些报表的数值计算,也可以上传 Excel ,并提出你的需求,它会帮你计算出你想要的结果~

当你上传视频之后,它也可以根据你提出的问题帮你分析

数学问题与算法能力

如果你有一些很复杂的、涉及到数学的代码问题,可以放心把这些问题交给 GLM-4-Plus,它绝对能帮你总结出最佳答案

打造自己的 GLM-4-Plus 机器人

BigModel 是一个非常人性化的开放平台,它允许我们开发者去定制训练属于自己的大模型,我现阶段做的 内部 AI 平台,其实拿的知识库还是从公网里去获取的,但是想要实现真正的 内部知识库,我需要自己去训练一个,那么 内部知识库 到底包含什么呢?其实有两部分:

  • 前端内部的一些知识文档
  • 前端内部的一些代码

顺便提一嘴,BigModel 支持私有化部署,让你打造真正的 内部知识库模型

我们需要把这两部分导入到 BigModel 知识库中,刚好它支持导入文档、url

创建知识库

导入方式很简单,我们只需要创建知识库,并导入知识即可

我这里是新建了两个知识库:

  • 1、内部前端文档库,导入的是一些内部的前端文档PDF
  • 2、内部前端代码库,导入的是一些内部的前端代码仓库链接

创建机器人应用

当你的知识库创建完毕之后,你需要创建一个应用去获取这些知识,并呈现到你面前

点击右上角的创建按钮,进行创建,这里创建的是问答机器人

应用需要绑定你想绑定的知识库,比如我这里就绑定了刚刚创建的两个知识库,并且同时你得选择一个现有模型,它能帮你做兜底,当知识库不满足你的提问时,模型会帮你去寻找答案

调试 & 发布

一切准备就绪,我们可以调试一下,看看是否达到我们的预期,我们选择一些知识库中的知识点,去进行提问,就比如下面这个知识点

可以看到还是符合预期的,这说明我们的应用打造成功了

接下来可以点击右上角的发布按钮啦~发布后你可以自己用,也可以分享给其他人使用,非常方便~


接口调用

如果你想要将 GLM-4-Plus 对接到你们自己的项目中的话,可以根据接口文档中的教程进行接口调用

文档:https://bigmodel.cn/dev/api/normal-model/glm-4#glm-4

首先需要去到官网获取一个免费的 API Key




最让我感到兴奋的是,智谱 为大部分编程语言都提供了对应的请求库,让你请求BigModel 接口时,更加方便快捷,就比如针对 Nodejs智谱 提供了 zhipuai-sdk-nodejs-v4




我们需要安装这个包,并且起一个Nodejs 服务,即可调用 智谱 的 API,这里我演示演示一下如何使用Nodejs去写两个接口,调用智谱提供的两种超强的大模型!!!

  • 1️、 /api/v1/ai/image:请求 CogView-3 模型,用来生成图片
  • 2️、 /api/v1/ai/agent:请求 GLM-4-Plus 模型,用来解答问题
npm init
npm i express zhipuai-sdk-nodejs-v4 body-parser

现在我们可以调用这两个接口,他会通过调用智谱提供的 API ,为你返回你所预期的答案~



GLM-4-Plus,从这一刻开始

智谱致力于推广AI的普及,bigmodel.cn大模型开放平台迅速整合了最新技术和模型。目前,以 GLM-4-Plus 为基础的大模型系列,包括 CogVideoX、GLM-4V-Plus、CogView-3-Plus,以及新近推出的 GLM-4-Plus-VideoCall(视频通话大模型),均已成功部署在该平台上,该模型处于内测阶段,可访问链接申请内测使用:

申请入口:https://zhipuaishengchan.datasink.sensorsdata.cn/t/mX

这意味着,平台上的数百万用户都能够随时调用智谱全模型系列的最新功能

在不断壮大模型家族的同时,智谱也在积极降低模型使用的难度。现在,bigmodel.cn上性价比极高的 GLM-4-Flash 模型已经免费开放。此外,在国庆十月期间,我们还为每位用户提供了 1亿tokens 的 免费额度,并根据使用情况,最高可享受 API 调用 九折优惠

领取链接:https://bigmodel.cn/dev/activities/FestiveOctober?utm_source=bigModel&utm_medium=info&utm_content=guoqing&utm_campaign=Platform_Ops&_channel_track_key=750Dpub8


前端之神
一位前端小菜鸡,写过400多篇原创文章,全网有6w+个前端朋友,梦想是成为”前端之神“~
 最新文章