“我们的大模型客服,为这家餐饮企业每天节省几万块钱”

科技   2024-11-08 14:23   意大利  

“一家头部餐饮行业用了我们的大模型客服之后,转人工率降低近7个点,由此带来的收益是,每天节省几万块钱。



近日,在百度世界大会媒体沙龙期间,在介绍智能客服平台客悦带给客户的价值时,百度智能云智能客服与智能内容产品部总经理张红光透露了上述数据。



张红光表示,今天的百度智能云客悦其实是一个大模型全面重构的智能客服平台,大幅缓解了客户人工客服招聘难、培训难、高峰期增援难等问题,并带来了很多成本节约。



大模型重构智能客服



智能客服产品在过去10多年中,大致经历了三个阶段。第一个阶段,客服产品智能化主要由规则系统驱动,通过关键词匹配,来回答客户提问。当时,客服产品只能回答固定模式问题,效果泛化差,精度很难超越80%。



进入2016年,随着 NLP、机器学习技术的发展,以数据驱动的模型技术提升了智能客服产品的泛化能力,问答精度也大幅提升,但这种提升背后需要大量运营工作,需要人工挖掘知识。



AI原生智能客服应用“客悦”亮相2024百度云智大会。



2023年,大语言模型技术的涌重塑了智能客服产品的体验,不但理解力强,产品的交互流畅度、拟人度、友好度等方面也都明显提升。



张红光介绍,百度基于大模型技术对智能客服产品进行了全面重构,客服机器人的理解能力大幅提升,用户的自助问题解决率提升到92%以上,客服产品运营效率提升达到6倍以上。



为什么大模型能给智能客服产品带来这样巨大的改进?主要是因为“大模型统一了开发范式。”



张红光解释称,上一代智能客服产品的每一个任务可能都需要一个小的NLP模型和算法,需要大量 NLP 算法工程师支持,需要标注很多数据才能实现有限的泛化效果,而现在大模型统一开发范式之后,不需要再拆分为零散的小任务,通过提示词和上下文学习等机制就能实现更好效果,大幅减少了对底层NLP算法工程师的需求。



百度智能云技术委员会主席孙珂进一步解释了大模型对应用开发的影响。首先,大模型通过提示词这样的形式实现了对不同类型任务的整合,可以用统一的模型任务范式去服务各种各样的需求点。其次,大模型带来很大的研发便捷度。



“以前为了验证一个端到端的应用可能要开发七八个小模型,串起来以后才可能出来效果。而现在,通过一个足够强的大模型,在上面只需要用不同的Prompt驱动它,就能把任务流程串起来,所以验证效率变高了。”孙珂指出,大模型能力逐渐变得更加通用,并且更加端到端以后,不但替代了专家系统的模型能力和任务,甚至把模型和模型之间的衔接工作也直接抹平了,使得研发复杂度降低了,并且还能做一些以前不能做的任务。



在大模型技术加持之下,今天客悦智能客服平台实现了更快地构建Agent。“以前要梳理很多FAQ,现在直接把文档丢进去,它就能出来一个不错的智能机器人,再配上一些模版和预置能力,开箱后自己再稍作改动,就可以有一个不错的客服机器人。”张红光称。



价值增长,门槛下降



大模型重构客悦智能客服平台带来的红利,反映在客户侧是成本的下降,其中一个关键的指标是客户问题转人工率的下降。



“我是一个留学生,我带着一个老人坐头等舱,我还有一个不占座的婴儿,我能带多少行李?”这类问题,上一代的智能客服机器人肯定解决不了,转到人工客服也需要查询一会儿。



在客服领域,人力成本占很大比例,不但招聘难,客服人员离职率很高,导致培训成本很高,服务体验、外呼展业等业务的效果也很难得到保障。



“我们在客服领域里摸爬滚打,清晰地知道哪些问题以前是机器人完全解决不了的。”作为客悦应用的负责人张红光表示,团队会重点在这个方向纵深推进,让客服机器人的解决能力更强,进而减少问题的转人工率,而这也得到了客户的正面反馈。



张红光透露,一家头部餐饮企业使用百度客悦智能客服平台之后,问题转人工率降低了将近7个点,由此带来的收益是,每天节省几万块钱。“这是非常好的正反馈,我们也知道我们走在正确的路上。”



在智能外呼这一个典型的客服应用场景下,客悦也获得了不错反馈。很多企业通过智能外呼做业务线索筛查或者是用户回访、AI招聘,但是以往客服人员的工作中可能有 80%都是无效电话。通过大模型智能外呼,客悦可以帮助客户实现意向的首轮筛查,然后再有人工客服联系高意向客户,而如果人工作息忙,还能打标签,在CRM系统里做标识让人工客服马上再联系高意向客户。



张红光表示,通过客户给予的反馈,客悦演进的方向就是不断给企业带来降本增收。



在此次世界大会媒体沙龙现场,客悦产品经理展示了客悦智能外呼后台的搭建流程,普通用户通过选择系统内置的模板,只需简单三步,填空式或提示词描述的配置方式,就可以快速搭建出一个客服机器人,产品的易用性令人印象深刻。



目前,百度智能云客悦智能客服平台可支持公有云、私有化、混合云等多元化的部署方式,所服务的客户也广泛覆盖了教育、政务、运营商、电商、汽车、文旅、物流、医疗等行业,其中不乏澳门旅游局、国家图书馆、国家电网、兴业银行在内的行业龙头企业。



大模型释放应用潜力



大模型智能客服-客悦只是大模型技术加持之后,焕发新活力的一个具体案例。在百度内部,智能代码助手文心快码、曦灵数字人平台等应用也因为大模型带来了更多新体验。


曦灵数字人平台4.0亮相2024百度云智大会。 

百度智能云数字人产品部总经理张裕翔在沙龙上介绍,得益于大模型技术的加持,曦灵数字人平台不仅在数字人生成效果、交互能力上实现了显著提升,同时也将应用门槛进一步降低。



通过曦灵的文生3D数字人功能,仅需输入“1句话”,就能在极短时间——5分钟内,快速生成高精超写实的3D数字人像。“这个数字人的所有的动作、表情,全部是通过文本驱动的,它并不像之前的数字人提前预制好的,而是由大模型来调动。”张裕翔说。



文心快码也是如此。文心快码可以在编程的全周期内为开发者提供实时推荐、代码生成、代码审查、优化代码等工具。大模型技术也深度融入在这款应用之中。



比如,文心快码的代码架构解释能力,就可以利用大模型对代码库完成快速解读,梳理整个工程架构及业务逻辑,帮助开发者快速理解;企业级代码审查功能可以利用大模型,结合企业代码规范,快速批量审查代码问题并给出修改建议,将会大幅提升审查效率和代码质量。



“以前很难想象能够让大模型帮你写代码,要知道代码是一个极其复杂的事情。当有了大模型以后,有点类似于端到端的帮你吸收了一大堆信息,然后又帮你生产出来一个恰恰好的代码。接下来我们需要做的事情只是尽可能的让它读更多的代码。”百度智能云技术委员会主席孙珂说。



据了解,文心快码已经被金融、互联网、软件开发、制作等多个行业的10000 +家企业客户、数百万中国开发者所使用,其中包括喜马拉雅、上海三菱、软通动力、吉利汽车、晶合等行业代表企业。



大模型技术的深度使用为百度了带来了多款应用的重塑和功能跃迁,以及快速商业化落地,这背后也得益于百度智能云的全栈AI技术积累。


据了解,百度智能云是四层技术架构——从底层芯片层到上面的基础云设施层,到平台层,再到应用层,应用都是在百舸、千帆等平台之上进行搭建的。



孙珂和张红光都表示,相对统一的底层架构保证了模型稳定高效稳定性,并屏蔽了模型对硬件适配以及底层硬件相关配置的复杂度,对整个上层应用蓬勃发展和提效非常有价值。



而做好大模型相关的应用已经成为了百度AI战略中的重点之一。去年3月份的文心一言发布会上,百度CEO李彦宏就已经指出了大模型的最大价值在应用。


或许这番表态意味着,百度把大模型应用的考量重心放在了实现价值之上。



下周召开的百度世界2024,主题定为“应用来了”。在这场会上,李彦宏很可能将给出自己对于AI应用落地方向的新答案。


觉得内容有收获,请您个关注,标个星~ 谢谢您

智能超参数
看趋势,涨知识,开眼界。 记录AI技术与商业。 提供独立思考与理性价值。
 最新文章