智谱 GLM 团队发布了其最新一代自研大模型——GLM-4-Plus。作为智谱最新的旗舰基座模型,GLM-4-Plus 延续了智谱对通用人工智能领域的执着追求,继续在大模型技术自主创新上突破前行。
GLM-4-Plus 的成功离不开其创新的技术设计。该模型通过大量合成数据的构建来优化模型表现,并借助PPO技术(Proximal Policy Optimization)来强化模型的推理能力,尤其是在数学、代码和算法题上的表现更加贴近人类偏好。
新一代基座大模型 GLM-4-Plus 成为智谱模型家族坚实的核心支撑,显著提升了在代码计算、数据分析、图像与视频特征识别等领域的性能,并大幅降低了使用成本。
来自国内金融、互联网、企业服务、教育等行业的伙伴使用 GLM-4-Plus,成功完成了信息抽取、机器翻译、智能体辅助教育等多种任务,展现出了强大的应用潜力。
在本文中,我特意设计了一系列测评题目,紧扣当前互联网的热点话题和广大网友的关注点,旨在全面考察GLM-4-Plus在语言理解、数理逻辑、指令遵循、长文本处理等多个方面的能力。同时,这些题目还涵盖了经济、时事政治、文学艺术等广泛的知识领域,并测试其在工作、学习、生活等具体场景中的应用表现。
1、综合知识考查、时事热点分析
2、逻辑推理与数学证明
3、代码理解与应用
不过,在实际应用中,据程序员群体反馈,大模型代码生成最有价值的地方,在于辅助完成BUG查找、修复和代码重构,以及自动续写等工作,从而将其从繁琐的重复劳动中解放出来,专注于创造性工作。
正如沙利文联合头豹研究院发布报告的《2024年AI代码生成市场观测报告-里程碑》年度报告指出,AI代码生成工具尤其在代码测试与检查、代码标注等方面表现突出。
4、工作、生活好帮手
首先,我让 GLM-4-Plus 帮我整理程序员的周报。从结果来看,报告结构清晰、文笔流畅,只需稍作微调便可直接编辑发布。
GLM-4-Plus 现已在智谱大模型开放平台 bigmodel.cn 部署,开发者可以通过 API 方式调用这一智谱最新基座大模型。
Python SDK 地址:https://github.com/zhipuai/zhipuai-sdk-python-v4
首先请通过如下方式进行安装 SDK 包:
pip install zhipuai
如您已安装老版本 SDK,请您更新到最新版 SDK。
pip install --upgrade zhipuai
然后在BigModel平台中获取API密钥,这个密钥千万不要告诉给其他人,不然可能会被其他人盗刷tokens,如下图所示:
下面以SDK,glm-4-plus 模型为例。将获取到的API密钥填入代码中即可调用,这只是一个简单案例,大家可以根据这个案例去扩展 。
from zhipuai import ZhipuAI
api_key = "e01ca83a2b3xxx"
client = ZhipuAI(api_key=api_key) # 请填写您自己的API Key
response = client.chat.completions.create(
model="glm-4-plus", # 填写需要调用的模型编码
messages=[
{"role": "user", "content": "请帮我写一个优雅的Python单例代码。"},
],
stream=True,
)
for chunk in response:
print(chunk.choices[0].delta.content)
还可以进行异步调用,调用后会立即返回一个任务 ID,然后用任务ID查询调用结果(根据模型和参数的不同,通常需要等待10-30秒才能得到最终结果),Python代码示例如下:
from zhipuai import ZhipuAI
client = ZhipuAI(api_key="") # 请填写您自己的APIKey
response = client.chat.asyncCompletions.create(
model="glm-4-0520", # 填写需要调用的模型编码
messages=[
{
"role": "user",
"content": "请你作为童话故事大王,写一篇短篇童话故事,故事的主题是要永远保持一颗善良的心,要能够激发儿童的学习兴趣和想象力,同时也能够帮助儿童更好地理解和接受故事中所蕴含的道理和价值观。"
}
],
)
print(response)
关于SDK的调用是不是很简单呀?接下来我会用2个实际案例带领大家更好的掌握这个模型 。
第一个案例:让模型进行数学推理。我们的推理内容包括首先让模型介绍一下费曼定理,然后假设北京有2000万常驻人口,帮忙推理需要多少个骑手可以满足外卖需求。
from zhipuai import ZhipuAI
api_key = "e01ca83a2xxxx"
client = ZhipuAI(api_key=api_key) # 请填写您自己的API Key
response = client.chat.completions.create(
model="glm-4-plus", # 填写需要调用的模型编码
messages=[
{
"role": "system",
"content": "你是一个资深数学推理专家。"
},
{
"role": "user",
"content": "首先介绍一下费曼定理的原理,然后假设北京有2000万常驻人口,帮忙推理需要多少个骑手可以满足外卖需求。"
}
],
top_p=0.8,
temperature=0.95,
max_tokens=4095,
tools=[{"type": "web_search", "web_search": {"search_result": True}}],
stream=True
)
context = ""
for chunk in response:
context += chunk.choices[0].delta.content
print(context)
运行程序结果如下。
费曼定理的原理
费曼定理通常指的是费曼在量子力学中的路径积分表述,这是一种计算量子系统行为的方法。费曼提出,一个量子系统的行为可以通过对所有可能路径的“贡献”进行积分来描述,而不是仅仅通过经典路径。具体来说,费曼路径积分公式如下:
费曼路径积分方法不仅在量子力学中非常重要,还在量子场论和高能物理中有广泛应用。
推理北京所需骑手数量
为了推理北京需要多少个骑手可以满足外卖需求,我们需要考虑以下几个因素:
人口密度与外卖需求:
假设北京2000万人口中有一定比例的人每天会点外卖。假设这个比例为10%,即200万人每天点外卖。
每日外卖订单量:
假设每人每天点一次外卖,那么北京每天的外卖订单量为200万单。
骑手工作效率:
假设每个骑手每天可以配送20单(这个数字可以根据实际情况调整,但20单是一个相对合理的估计)。
工作时间与轮班:
假设骑手每天工作8小时,且外卖服务全天24小时不间断,需要考虑轮班制度。
计算过程
每日所需骑手数量:
每天需要配送200万单,每个骑手每天配送20单。
所需骑手数量 = 总订单量 / 每个骑手每日配送量 [ \text{所需骑手数量} = \frac{2000000}{20} = 100000 ]
考虑轮班制度:
如果骑手每天工作8小时,那么一天需要3班轮换。
实际需要的骑手数量 = 每日所需骑手数量 / 班次 [ \text{实际所需骑手数量} = \frac{100000}{3} \approx 33333 ]
结论
根据上述推理和假设,北京大约需要 33,333 名骑手 来满足每日的外卖需求。这个数字是基于一些简化假设,实际情况可能会因季节、天气、节假日等因素有所波动,需要根据具体情况进行调整。
需要注意的是,这个推理过程并没有直接使用费曼定理,因为费曼定理主要用于量子力学中的路径积分计算,而在实际问题(如外卖骑手数量)的推理中,更多的是应用统计学和运筹学的方法。
第二个案例:带领大家做一个报告PDF绘制思维导图的工具。大家都知道一篇报告少则几千字,多则几万字,要绘制思维导图人工需要很长时间才能完成,接下来我会用智谱AI的 GLM-4-Long 模型来看看效果。
基本思路是:先利用大模型将PDF摘要总结成思维导图MarkDown的格式,然后利用工具,如Xmind的进行思维导图的绘制。
代码如下:
# 安装依赖 pip install -U --quiet zhipuai langchain pypdf
from langchain_community.document_loaders import PyPDFLoader
from zhipuai import ZhipuAI
api_key = "e01ca83a2b31ftexxx"
loader = PyPDFLoader("241010 人工智能现状报告.pdf")
pages = loader.load_and_split()
content = "\n".join([x.page_content for x in pages])
client = ZhipuAI(api_key=api_key)
response = client.chat.completions.create(
model="glm-4-long",
messages=[
{"role": "system",
"content": "你是一个PDF解读专家。step-by-step全面深入地解读,然后进行总结文档的思维导图大纲,最终MarkDown格式输出思维导图的内容。"},
{"role": "user", "content": content}],
top_p=0.7,
temperature=0.95,
max_tokens=4095,
stream=True
)
context = ""
for chunk in response:
context += chunk.choices[0].delta.content
print(context)
运行代码拿到PDF文档的大纲:
将大模型的结果保存成MarkDown文件,然后打开Xmind,并导入Mark Down文件。
最终生成的思维导图如下图:
可以看到,使用智谱大模型真的可以帮助我们解决很多问题。GLM-4-Long 作为百万级上下文模型性价比很高,推荐大家去体验一波!
GLM-4-Long接口文档:
https://bigmodel.cn/dev/api#glm-4
GLM-4-Long体验中心:
https://zhipuaishengchan.datasink.sensorsdata.cn/t/AF
随着开放平台模型的广受欢迎,智谱也将继续推动 AI 力量惠及更多人群。通过大模型链接物理世界亿级用户,智谱致力于为千行百业带来持续创新与变革,加速迈向通用人工智能时代。