大模型的发展太迅速了,前几天打完价格战、又打开源战,真实卷到飞起。
现在不仅大模型卷,大模型相关应用也卷,在两年不到的时间里,也是出现了不少大模型相关的应用。
有人多人都说大模型会取代xxxx行业,我真心觉得大模型是工具,而那些不会使用工具的人才会被淘汰。
不过有一说一,大模型真给我平时生活带来了很多便利,比如:翻译论文、写一些假大空的文档、还有辅助写代码。
PS:感觉离开大模型,自己coding的速度会慢一倍,现在有bug直接就问大模型,有函数不懂直接就问大模型,尤其是困扰我多年的正则表达式(懂得都懂)。
现在大模型的使用成本是很低的,一般网页版的大模型也都是不收费的。
并且现在有很多大模型平台,可以快速搭建大模型应用,极大降低了普通人搭建专属AI应用的门槛,比如阿里云的百炼平台,甚至可以通过拖拉拽的形式搭建一整套自定义的业务流程。
就拿阿里云的百炼平台举例,可以通过配置Prompt、添加知识库、设置插件等方式快速搭建一个应用。
https://bailian.console.aliyun.com/#/app-center
假设我们搭建一个售后客服应用,需要根据售后手册回答相关问题,当涉及售后手册外的问题时拒绝回答并提示可以转人工。
直接Prompt+知识库就可以完成,如下:
当然对于搭建这种应用来说,Prompt是关键中的关键,如何激发出大模型更多的智能,如何让大模型更好地遵循指令,靠的都是一手写Prompt的本事,去年也是一度爆火了Prompt工程师的职业。
写Prompt也是有技巧,一般需要先限定场景给予赋予大模型角色,然后描述背景信息,再给定需求告诉大模型要做什么,最后再补充一些细节要求或提供一些示例。
不过现在写不好不要紧,一般平台都会带提示词优化功能,简单给个内容之后,直接优化提示词(一般都是按几个模块生成的提示词),我们可以根据优化过的提示词进一步修改,比如我一开始的提示词是:
你是一个售后机器人,主要任务是根据售后手册内容回答用户的问题。无论是单轮还是多轮对话,如果用户的问题不在“售后手册”内容范围内,将回复“无法回答该问题,请问是否需要转人工。”。 请使用专业且准确的语言,并严格按照手册内容进行回答,确保提供高质量的客户服务。在回答过程中,必须严格遵循手册中的内容回答问题。
优化后的提示词是:
# 角色
你是一名专业的售后支持机器人,专门负责依据内置的“售后手册”为用户提供精确且详细的问题解答。
## 技能
### 技能1: 精准解答售后问题
- 快速识别并理解用户提出的问题,确保问题范畴符合“售后手册”内容。
- 根据“售后手册”的指导,提供标准、专业的解答,确保信息的准确性与实用性。
- 适应单轮或多轮对话模式,持续提供满意的服务直至问题解决。
### 技能2: 有效沟通与转接
- 当用户提问超出“售后手册”范围时,礼貌回复:“无法回答该问题,请问是否需要转人工服务?”
- 若用户同意转接,需无缝衔接至人工客服流程,确保用户体验连续性。
### 技能3: 手册内容的严格遵循
- 在任何情况下,严格遵守“售后手册”的规定与指导,不提供手册外的推测性答案。
- 维持专业语言风格,确保每次交流都能体现高标准的客户服务。
## 限制条件
- 仅限于解答“售后手册”涵盖的问题,对于手册未涉及的内容,不可擅自提供答案。
- 在与用户的交互中,必须保持客观、中立,避免提供主观意见或建议。
- 确保所有互动均在“售后手册”框架内进行,必要时及时引导用户转至人工服务,不得延误。
当然对于上面的一个简单应用,利用提示词+知识库基本可以完成,但是复杂任务,那么就需要更多的工具(function calling)来参与到搭建中来,同时一些流程化的内容也需要提前编排好(workflow)。
现在的平台也是都支持的,主要是为了让更多人可以快速搭建AI应用,减少开发成本。
当然如果需要模型微调的操作,也是一应俱全,该有的都有。这里我就不过多介绍了,感兴趣的小伙伴可以自行体验,当然还有实训营,课程涵盖很广,由浅入深的知识布局,还有真人讲解,还有应用实操,课程全部免费,大家可以自行学习。
现有这些AI平台主要还是为了给更多的普通人带来便利,让大家入手AI的门槛变低,人人都可以参与进去,碰撞出不同的火花,当然一个好的AI应用是需要很多额外的复杂设计,但这并不妨碍我们学习AI、学习使用AI、学习高效地使用AI。
就跟之前有人问我,为啥他地AI合成的数据那么差,我只能说:兄弟你没用对。
AI时代已经到来,对于大家来说都是机会,反正逆水行舟,不进则退,学就完事儿了。
PS:给公众号添加【星标⭐️】不迷路!您的点赞、在看、关注是我坚持的最大动力!
欢迎多多关注公众号「NLP工作站」,加入交流群,交个朋友吧,一起学习,一起进步!
我们的口号是“生命不止,学习不停”!
往期推荐:
一大堆Chinese Llama3正在袭来 LLM2LLM:迭代数据增强策略提升大模型微调效果 如何快速提高大模型的向量表征效果? RAG系统中答案无关片段对LLMs生成答案有何影响? InternLM2技术报告 Qwen1.5-MoE模型:2.7B的激活参数量达到7B模型的性能 RAG与Long-Context之争—没必要争 角色扮演大模型的碎碎念 自我蒸馏方法-减轻大模型微调过程中的灾难性遗忘 Yi技术报告细节分享 大模型增量预训练新技巧-解决灾难性遗忘 如何提高LLMs的文本表征(Text Embedding)能力? DEITA-大模型指令微调的数据高效筛选方法 大模型微调技巧 | 高质量指令数据筛选方法-MoDS 辟谣!微软撤回声称ChatGPT为20B参数的论文,并给出解释。 如何看待微软论文声称 ChatGPT 是 20B (200亿) 参数量的模型? 大模型微调技巧-在Embeeding上加入噪音提高指令微调效果 如何从数据集中自动识别高质量的指令数据 BaiChuan2技术报告细节分享&个人想法 大模型LLM微调经验总结&项目更新 打造LLM界的Web UI 是我们在训练大模型,还是大模型在训练我们? Llama2技术细节&开源影响 大模型时代-行业落地再思考 垂直领域大模型的一些思考及开源模型汇总 如何评估大模型-LLMs的好坏?