白嫖 3 亿 tokens
今天给大家介绍一个白嫖 3 亿 tokens 的机会。(非广,纯分享)
主角是一个叫做 SiliconFlow(硅基流动)[1] 的 AI 服务提供商(国内公司)。
SiliconFlow 提供多个开源模型的聚合服务:
只提供开源模型的 AI 服务,比如阿里的 Qwen2 和智谱清言的 GLM4 模型。 所谓聚合,指的是通过一个 Key,即可调用各个开源模型,且兼容 OpenAI 接口。 尽管基于开源模型,但 SiliconFlow 提供的服务是收费的(但是便宜)。收费的原因是 SiliconFlow 在其高性能服务器上部署了这些模型,不用你自己在性能有限的主机上部署了。
SiliconFlow 提供的开源模型服务里,就包括最近非常火热的 Qwen2,算是国产开源模型翘楚了。
一个好消息是,近期(2024年5月31日 - 2024年6月18日)注册 SiliconFlow,即可获赠 3 亿 tokens。
白嫖 3 亿 tokens
注册账户
登录 SiliconFlow 官网https://siliconflow.cn
,注册一个账户,即可获赠 42 元额度(相当于 3 亿 Gemma-2B tokens)。
进入账单,可以看到免费额度。(我还剩 41.921 元)
SiliconFlow 提供的模型及其价格
目前,SiliconFlow 提供以下开源模型,价格也是很便宜了(大家可以对比测算下)。
上下文长度方面,最高支持 32K,能满足大部分论文的 AI 阅读需求了。
在 Zotero 中试试 Qwen2
很多人可能还不知道国产模型 Qwen2 的实际效果,下面就以 Zotero One 来演示下 SiliconFlow 的 Qwen2 模型。
获取 API 密钥
首先在 SiliconFlow 后台,获取 API 密钥。👇
在 Zotero One 中配置
在 Zotero One 的【GPT 自定】处,按照下图所示配置,即可调用 Qwen2 模型:
Host:填写 https://api.siliconflow.cn
API:填写上一步获取的 API 密钥
启用自定义模型:勾选,并输入 alibaba/Qwen2-72B-instruct
接下来在 Zotero One【GPT 侧边栏】调用试试!
试试响应速度
不试不知道,一试吓一跳。😯
丝滑无比!其流式输出具有堪比 GPT-4o 的响应速度,刚点击发送,结果就出来了。👇
试试 论文 AI 阅读
再试试论文 AI 阅读,效果还是不错的。👇
再试试编程能力
编程方面,回答的也很满意。👇
总结
国产大模型的成长速度真的挺惊人的,感兴趣的快注册一个账号试试吧!
相关链接
SiliconFlow(硅基流动): https://siliconflow.cn/zh-cn