用户评论中隐藏了什么?GLM-4-Plus帮你快速理清思路

文摘   2024-12-10 21:00   江西  

* 戳上方蓝字“开源先锋”关注我


大家好,我是开源君!

相信大家现在和开源君一样,都离不开AI的使用了吧~~

国内AI大模型发展的如火如荼,各家有各自的优势和特色。这不,智谱AI最近动作频频,发布了若干更新模型,其中以基座大模型 GLM-4-Plus 甚是抢眼。

坦白说,这次体验给了我很多惊喜,感受到这款模型所带来的便捷性和强大能力,正如官网介绍“几行代码接入大模型,极速构建变革性AI体验”。


GLM-4-Plus模型简介

GLM-4系列模型是智谱公司推出的新一代基座大模型,因其强大的语言生成和理解能力,成为了许多开发者的首选。

而 GLM-4-Plus 作为 GLM-4 系列的最新旗舰模型,在各大语言文本能力数据集上获得了与 GPT-4o 及 405B Llama3.1 相当的水平,语言理解、逻辑推理、指令遵循、长文本输出等方面均有较大突破。

接下来,开源君就和大家分享一下 GLM-4-Plus 模型的使用体验,主要是以API使用,毕竟大家都是程序员,API方便实用才是真的香。

GLM-4-Plus API使用方法

1、准备 API key

我们先登录智谱AI开放平台(https://bigmodel.cn),这里提供了多种API接口,我们可以通过这些接口调用智谱AI的模型,实现智能化的应用。

点击右上角登录账号。

如果没有的话就注册一个,现在注册还可以 免费白嫖 领取2000万Tokens资源包 。反正都是免费送的,不要白不要,是吧~~

然后点击右上角的钥匙图标,进入API Keys界面,这里展示了账号里已经生成的API Keys。

如果没有看到任何内容,可以点击“添加新的API Key”,增加一个新的。

接下来,我们来测试一下API Key是否有效。

我这边使用的是python,先运行安装zhipuAI库

pip install ZhipuAI

完成后,参考官方给出的实例https://bigmodel.cn/dev/api/normal-model/glm-4,填入刚刚我们上面智谱AI开放平台生成的APIAPI key。

from zhipuai import ZhipuAI
client = ZhipuAI(api_key="")  # 请填写您自己的APIKey
response = client.chat.completions.create(
    model="glm-4-plus",  # 请填写您要调用的模型名称
    messages=[
        {"role""user""content""作为一名营销专家,请为我的产品创作一个吸引人的口号"},
        {"role""assistant""content""当然,要创作一个吸引人的口号,请告诉我一些关于您产品的信息"},
        {"role""user""content""智谱AI开放平台"},
        {"role""assistant""content""点燃未来,智谱AI绘制无限,让创新触手可及!"},
        {"role""user""content""创作一个更精准且吸引人的口号"}
    ],
)
print(response.choices[0].message)

运行代码,能出现下面的结果,就说明API调用成功。

接下来,开源君和大家进一步看看GLM-4-plus模型的使用场景。

用户评论中隐藏了什么

我们都知道,评论区是舆情的“地雷区”,用户评论中藏着大量有价值的信息,但手动分析太耗时了。但如果我们可以实现对评论区搞定情感分析和关键词提取,那么是不是分分钟找到方向!

比如我们需要从大量的评论中提取情感倾向,找到高频关键词,以发现用户的一些需求和痛点,改进我们的产品。

为了方便演示,这里简化了一些样本,假设我们获取到了4份txt文档,里面存有获取到的评论信息,大约共有200条评论。

1、批量获取每个txt文档的内容

import os

current_script_path = os.path.abspath(__file__)
content_dir = os.path.dirname(current_script_path)

all_txt_contents = []

for filename in os.listdir(content_dir):
    if filename.endswith(".txt"):
        with open(os.path.join(content_dir, filename), 'r', encoding='utf-8') as file:
            txt_content = file.read()

2、将每个txt文档的内容发送给GLM-4-plus进行处理。

参考官方的API调用示例,这里选用glm-4-plus模型,填入自己的api-key,放入准备好的prompt。

from zhipuai import ZhipuAI
client = ZhipuAI(api_key="")

response = client.chat.completions.create(
   model="glm-4-plus",
   messages=[
   {"role""system""content""你是一个内容评价助手。"},
   {"role""user""content""请分析以下评论的情感倾向和包含的关键词,并将生成的结果整理一下,分成3列,第1列为评论内容,第2列为情感倾向,第3列为关键词。要求:1、不要遗漏任何一条信息,即使评论有重复的也不要删除。2、所有内容以csv文件的样式输出。3、只需要保留3列内容,其余的文字、字符等一概不需要。"},
   {"role""user""content": txt_content}
            ],
        )
   emotion_result = response.choices[0].message.content

运行后,稍等几秒即可以看到已经按照我们的要求对每条评论进行了情感倾向分类,并列出了关键词,相应速度很快。

看结果,一步到位,对我写的prompt内容识别理解的非常准确,并且按照我的意图进行了正确的处理。

3、将所有txt内容处理好的数据保存为csv或者txt文档,后续数据可以更加方便的直观展示,以及分析处理。

with open('reviews_emotion.csv''a', encoding='utf-8-sig') as output_file:
    output_file.write(all_content_combined + '\n')

打开csv文件,所有评论内容完整无缺,生成的内容也是同样的200条,每条评论的内容顺序也是一样的。不得不说,确实给力。

完整代码如下:

import os
from zhipuai import ZhipuAI

client = ZhipuAI(api_key="")

# 获取当前脚本的绝对路径
current_script_path = os.path.abspath(__file__)
# 获取当前脚本所在的目录
content_dir = os.path.dirname(current_script_path)

all_txt_contents = []

for filename in os.listdir(content_dir):
    if filename.endswith(".txt"):
        with open(os.path.join(content_dir, filename), 'r', encoding='utf-8') as file:
            txt_content = file.read()
        
        # 批量调用API分析处理
        response = client.chat.completions.create(
            model="glm-4-plus",
            messages=[
                {"role""system""content""你是一个内容评价助手。"},
                {"role""user""content""请分析以下评论的情感倾向和包含的关键词,并将生成的结果整理一下,分成3列,第1列为评论内容,第2列为情感倾向,第3列为关键词。要求:1、不要遗漏任何一条信息,即使评论有重复的也不要删除。2、所有内容以csv文件的样式输出。3、只需要保留3列内容,其余的文字、字符等一概不需要。"},
                {"role""user""content": txt_content}
            ],
        )
        # 获取分析的结果
        emotion_result = response.choices[0].message.content
        
        print(emotion_result)
        
        all_txt_contents.append(emotion_result)
        
all_content_combined = "\n".join(all_txt_contents)

## 保存数据内容
with open(output_filename, 'a', encoding='utf-8-sig') as output_file:
    output_file.write(all_content_combined + '\n')

到此,我们就快速完成了一个利用GLM-4-Plus模型制作的用户评论解析器的场景应用,能够快速的帮助我们分析处理用户评论变得又快又准。

后面进一步可以根据实际应用场景需求,比如进一步对情感倾向分类统计,关键词统计分析等等。

小结

通过上面场景演示,我们发现GLM-4-Plus这个模型确实不错,在各种批量处理数据、长文本理解上,该模型都展现出了非常卓越的性能。

其实GLM-4系列模型能做的事情远不止批量处理数据的功能,从内容创作到数据分析、从教育到编程,每个场景都能轻松覆盖。如果你还没试过,真的推荐亲自体验一下,说不定就成为你的效率神器了!

智谱AI开放平台:https://bigmodel.cn?utm_source=9&utm_campaign=yrgzh&_channel_track_key=010zzfcR

点击“阅读原文”,一起加入体验吧!
👇👇👇

开源先锋
分享Github上最有趣的开源项目
 最新文章