就在今天,智谱 AI 旗下的大模型开放平台宣布 GLM-4-Flash 全面免费,并且该模型微调也开启了限时免费活动。
体验地址:https://zhipuaishengchan.datasink.sensorsdata.cn/t/CA
智谱 AI 将 GLM-4-Flash 完全免费给用户使用,对于小公司或个人来说非常不错,模型小、响应快,Chris 也可以基于此模型开发自己的产品啦~
一、GLM-4-Flash 介绍
GLM-4-Flash 模型是智谱 AI 第一个免费的大模型 API,速度极快,可以用在文章创作、代码调试、代码生成、知识库问答、PPT 助手、思维导图生成等场景。
GLM-4-Flash 模型的优势在于:
强大的推理能力:支持 128K 上下文推理和多语言处理; 极快的生成速度:生成速度大约在 72.14 token/s,约等于 115 字符/s; 支持函数调用:其函数调用能力与 GPT-4 相当; 支持网页检索:能够实时访问天气、新闻等信息。
二、GLM-4-Flash 使用
首先大家需要创建一个 API Key,后续都会使用这个 API Key 来使用 GLM-4-Flash 模型。
网址:https://bigmodel.cn/usercenter/apikeys
接下来 Chris 介绍下如何使用 GLM-4-Flash,主要包括非开发者和开发者的角度:
1.非开发者如何使用
非开发者可以借助一些第三方 AI 客户端(如 ChatBox、ChatAll 等),通过配置 API Key 方式使用 GLM-4-Flash 模型,非常简单,Chris 以 ChatBox 为例演示:
ChatBox 官网:https://chatboxai.app/
首先点击“设置”按钮,选择“添加自定义提供方”:
然后填写模型提供方的配置信息,大家可以按照下面配置:
名称:可以随便写个名称,方便知道找到这个配置; API 域名:填写 https://open.bigmodel.cn 即可; API 路径:填写 /api/paas/v4/chat/completions 即可; API 密钥:填写前面创建的 API Key 即可; 模型:填写“GLM-4-Flash”即可。
配置完成后,就可以在对话框中进行测试,如果 GLM-4-Flash 能够正常响应,就表示配置成功:
接下来就可以自由使用了。
2.开发者如何使用
开发者同样可以轻松的将 GLM-4-Flash 模型集成到自己的应用中。开发者在模型体验页面中,点击“查看代码”,然后“复制代码”,再将代码中添加自己的 API Key:
上面是 Python 代码,对于其他语言也可以直接使用 HTTP 请求的方式对接,详细的对接方式和参数说明,可以查看官方接口文档:
API 接口文档:https://open.bigmodel.cn/dev/api#glm-4
下面是使用 JavaScript 示例代码:
const apiKey = "<你的apikey>";
const url = "https://open.bigmodel.cn/api/paas/v4/chat/completions";
const data = {
model: "glm-4",
messages: [{ role: "user", content: "你好" }],
};
fetch(url, {
method: "POST",
headers: {
Authorization: `Bearer ${apiKey}`,
"Content-Type": "application/json",
},
body: JSON.stringify(data),
})
.then((response) => response.json())
.then((result) => {
console.log("Success:", result);
})
.catch((error) => {
console.error("Error:", error);
});
也可以参考下面 curl 请求:
curl --location 'https://open.bigmodel.cn/api/paas/v4/chat/completions' \
--header 'Authorization: Bearer <你的apikey>' \
--header 'Content-Type: application/json' \
--data '{
"model": "glm-4",
"messages": [
{
"role": "user",
"content": "你好"
}
]
}'
如果要使用 GLM-4-Flash 的工具,比如网页检索、知识库检索、函数调用等,需要在请求参数 tools
中配置。
三、场景示例
通过前面两种方式,大家就可以使用上免费版的 GLM-4-Flash 模型了,接下来看下 GLM-4-Flash 在常用场景中表现如何:
1.知识问答
知识问答是比较常用的一种场景,Chris 以最近非常火爆的“黑神话:悟空”为例进行提问,问题如下:
介绍一下黑神话悟空,为什么这么火?
可以看到 GLM-4-Flash 给出了非常新的回答,这样就能快速了解一些最新问题:
2.文章创作
GLM-4-Flash 根据输入的标题、主题、风格等要求生成文章,可以很好的提高写作效率和质量,比如以鲁迅体写一则西游记故事:
## Goals
请用鲁迅体写一段 400 字左右的西游记故事,讲述取经四人的小故事。
## Output Format
鲁迅体风格经常使用短语、短句进行叙述
如:"我大抵是..."、"没由来的"、"横竖都...."、"一个...,另一个...,"、"黯黯然看着.."
生成的文章内容,还是符合 Chris 的要求的:
3.思维导图生成器
GLM-4-Flash 模型能够创建并预览 Mermaid 格式的思维导图,有效辅助我们梳理知识点。例如,生成“西游记核心人物关系”的思维导图:
# Role: 思维导图生成器
## Goals
使用Mermaid格式生成一个展示西游记核心人物关系的思维导图。
## Constrains
保持西游记核心人物,确保思维导图的清晰性和连贯性,准确使用Mermaid语法,不使用书名号。
## Skills
精通Mermaid语法,理解西游记内容,能够将复杂思想组织成层次结构。
## Output Format
Mermaid语法的思维导图。
## Workflow
分析西游记核心人物的关系,将其结构化成适合思维导图的层次格式,将结构转换成Mermaid语法。
生成结果如下,非常直观:
4.代码调试助手
GLM-4-Flash 模型具备理解代码的能力,并能够进行代码调试,提出改进建议。此外,它还能提供修改后的代码:
# Role: 代码调试助手 : 帮助用户找到并解决代码中的错误
## Constrains
保持用户原有代码的意图和结构,不引入新的错误。
## Skills
- 理解并分析代码逻辑
- 识别常见的编程错误
- 提供实用的调试技巧
## Workflow:
1. 读取并理解用户提供的代码和问题描述。
2. 分析代码,找出可能的错误或问题。
3. 提供具体的中文调试建议和步骤。
4. 确保建议简洁明了,易于执行。
需要检查和改进的代码:
const apiKey = '<你的apikey>';
const url = 'https://open.bigmodel.cn/api/paas/v4/chat/completions;
const data = {
model: "glm-4"
};
很明显,GLM-4-Flash 发现代码中的问题,并进行改正:
5.实时查询
GLM-4-Flash 模型具备实时信息检索和总结的功能,极大地便利了需要频繁查找信息的用户。例如,Chris 可以轻松查询最近 10 条国内 AI 领域的重要新闻:
以上简单介绍了几个常见使用场景,更多使用常见大家可以自行体验。
四、总结
Chris 体验下来,觉得智谱 AI 这次推出的 GLM-4-Flash 免费模型非常不错,很适合一些小公司及个人用户,可以按照自己的需求来选择合适的模型,或者微调自己的模型。大家有需要的话,也记得抓紧薅起来啦~
点击下方“阅读原文”即可体验!