智谱 AI 宣布 GLM-4-Flash 模型全面免费,太良心了!赶紧白嫖起来~

文摘   2024-08-27 19:34   福建  

就在今天,智谱 AI 旗下的大模型开放平台宣布 GLM-4-Flash 全面免费,并且该模型微调也开启了限时免费活动

体验地址:https://zhipuaishengchan.datasink.sensorsdata.cn/t/CA

智谱 AI 将 GLM-4-Flash 完全免费给用户使用,对于小公司或个人来说非常不错,模型小、响应快,Chris 也可以基于此模型开发自己的产品啦~

一、GLM-4-Flash 介绍

GLM-4-Flash 模型是智谱 AI 第一个免费的大模型 API,速度极快,可以用在文章创作代码调试代码生成知识库问答PPT 助手思维导图生成等场景。

GLM-4-Flash 模型的优势在于:

  • 强大的推理能力:支持 128K 上下文推理多语言处理
  • 极快的生成速度:生成速度大约在 72.14 token/s,约等于 115 字符/s;
  • 支持函数调用:其函数调用能力与 GPT-4 相当;
  • 支持网页检索:能够实时访问天气、新闻等信息。

二、GLM-4-Flash 使用

首先大家需要创建一个 API Key,后续都会使用这个 API Key 来使用 GLM-4-Flash 模型。
网址:https://bigmodel.cn/usercenter/apikeys

接下来 Chris 介绍下如何使用 GLM-4-Flash,主要包括非开发者和开发者的角度:

1.非开发者如何使用

非开发者可以借助一些第三方 AI 客户端(如 ChatBox、ChatAll 等),通过配置 API Key 方式使用 GLM-4-Flash 模型,非常简单,Chris 以 ChatBox 为例演示:

ChatBox 官网:https://chatboxai.app/

首先点击“设置”按钮,选择“添加自定义提供方”:

然后填写模型提供方的配置信息,大家可以按照下面配置:

  • 名称:可以随便写个名称,方便知道找到这个配置;
  • API 域名:填写 https://open.bigmodel.cn 即可;
  • API 路径:填写 /api/paas/v4/chat/completions 即可;
  • API 密钥:填写前面创建的 API Key 即可;
  • 模型:填写“GLM-4-Flash”即可。

配置完成后,就可以在对话框中进行测试,如果 GLM-4-Flash 能够正常响应,就表示配置成功:

接下来就可以自由使用了。

2.开发者如何使用

开发者同样可以轻松的将 GLM-4-Flash 模型集成到自己的应用中。开发者在模型体验页面中,点击“查看代码”,然后“复制代码”,再将代码中添加自己的 API Key:

上面是 Python 代码,对于其他语言也可以直接使用 HTTP 请求的方式对接,详细的对接方式和参数说明,可以查看官方接口文档:

API 接口文档:https://open.bigmodel.cn/dev/api#glm-4

下面是使用 JavaScript 示例代码:

const apiKey = "<你的apikey>";
const url = "https://open.bigmodel.cn/api/paas/v4/chat/completions";

const data = {
  model"glm-4",
  messages: [{ role"user"content"你好" }],
};

fetch(url, {
  method"POST",
  headers: {
    Authorization`Bearer ${apiKey}`,
    "Content-Type""application/json",
  },
  bodyJSON.stringify(data),
})
  .then((response) => response.json())
  .then((result) => {
    console.log("Success:", result);
  })
  .catch((error) => {
    console.error("Error:", error);
  });

也可以参考下面 curl 请求:

curl --location 'https://open.bigmodel.cn/api/paas/v4/chat/completions' \
--header 'Authorization: Bearer <你的apikey>' \
--header 'Content-Type: application/json' \
--data '{
    "model": "glm-4",
    "messages": [
        {
            "role": "user",
            "content": "你好"
        }
    ]
}'

如果要使用 GLM-4-Flash 的工具,比如网页检索知识库检索函数调用等,需要在请求参数 tools中配置。

三、场景示例

通过前面两种方式,大家就可以使用上免费版的 GLM-4-Flash 模型了,接下来看下 GLM-4-Flash 在常用场景中表现如何:

1.知识问答

知识问答是比较常用的一种场景,Chris 以最近非常火爆的“黑神话:悟空”为例进行提问,问题如下:

介绍一下黑神话悟空,为什么这么火?

可以看到 GLM-4-Flash 给出了非常新的回答,这样就能快速了解一些最新问题:

2.文章创作

GLM-4-Flash 根据输入的标题、主题、风格等要求生成文章,可以很好的提高写作效率和质量,比如以鲁迅体写一则西游记故事:

## Goals
请用鲁迅体写一段 400 字左右的西游记故事,讲述取经四人的小故事。

## Output Format
鲁迅体风格经常使用短语、短句进行叙述
如:"我大抵是...""没由来的""横竖都....""一个...,另一个...,""黯黯然看着.."

生成的文章内容,还是符合 Chris 的要求的:

3.思维导图生成器

GLM-4-Flash 模型能够创建并预览 Mermaid 格式的思维导图,有效辅助我们梳理知识点。例如,生成“西游记核心人物关系”的思维导图:

# Role: 思维导图生成器
## Goals
使用Mermaid格式生成一个展示西游记核心人物关系的思维导图。

## Constrains
保持西游记核心人物,确保思维导图的清晰性和连贯性,准确使用Mermaid语法,不使用书名号。

## Skills
精通Mermaid语法,理解西游记内容,能够将复杂思想组织成层次结构。

## Output Format
Mermaid语法的思维导图。

## Workflow
分析西游记核心人物的关系,将其结构化成适合思维导图的层次格式,将结构转换成Mermaid语法。

生成结果如下,非常直观:

4.代码调试助手

GLM-4-Flash 模型具备理解代码的能力,并能够进行代码调试,提出改进建议。此外,它还能提供修改后的代码:

#  Role: 代码调试助手 : 帮助用户找到并解决代码中的错误

## Constrains
保持用户原有代码的意图和结构,不引入新的错误。

## Skills
- 理解并分析代码逻辑
- 识别常见的编程错误
- 提供实用的调试技巧

## Workflow:
1. 读取并理解用户提供的代码和问题描述。
2. 分析代码,找出可能的错误或问题。
3. 提供具体的中文调试建议和步骤。
4. 确保建议简洁明了,易于执行。

需要检查和改进的代码:
const apiKey = '<你的apikey>';
const url = 'https://open.bigmodel.cn/api/paas/v4/chat/completions;
const data = {
  model: "glm-4"
};

很明显,GLM-4-Flash 发现代码中的问题,并进行改正:

5.实时查询

GLM-4-Flash 模型具备实时信息检索和总结的功能,极大地便利了需要频繁查找信息的用户。例如,Chris 可以轻松查询最近 10 条国内 AI 领域的重要新闻:

以上简单介绍了几个常见使用场景,更多使用常见大家可以自行体验。

四、总结

Chris 体验下来,觉得智谱 AI 这次推出的 GLM-4-Flash 免费模型非常不错,很适合一些小公司及个人用户,可以按照自己的需求来选择合适的模型,或者微调自己的模型。大家有需要的话,也记得抓紧薅起来啦~

点击下方“阅读原文”即可体验!

AI工具派
探索最新AI工具,发现AI带来的无限可能性!
 最新文章