EP20 非常好的LLM保险销售案例(对谈暖哇)

文摘   科技   2024-09-25 17:26   上海  
关注共识粉碎机,获取历史讨论会纪要

本期讨论会参与者:

莫子皓老师:互联网保险暖哇科技合伙人

主持人:

周默:共识粉碎机,前美元对冲基金投资人,曾在腾讯与微软从事战略与投资业务


本文的部分内容也在莫子皓老师的文章中出现过,欢迎关注莫子皓老师的文章和公众号。

莫老师也特别说,离文章讨论过了一个月,行业又有了很大的变化。

戳这里:《莫子皓:Workflow Based 企业内部大模型落地 Roadmap



1 暖哇与大模型模式


暖哇是国内最大的互联网保险公司之一

  • 暖哇由众安和红杉孵化,有保险经纪牌照。

  • 保费收入一年30+亿,公司收入一年10+亿。

  • 整体的业务形态都在线上获客,线上获客后在线上支付成交,月缴型产品较多。

  • 本期嘉宾莫子皓是暖哇科技合伙人,负责暖哇科技整体产品、投放、运营等各方面工作。

暖哇定义LLM销售为数字员工

  • 目前在LLM销售领域主要有两个概念,Sales Agent与Copilot。

  • 但在暖哇主要从事的互联网保险领域,很难有Copilot这样的中间地带,在座席的日常实践中,只有“发”与“不发”两种选择,不会存在中间修改的流程,不像写代码,存在自动补全的空间。

  • 但同时LLM在暖哇也不是Agent,因为Agent具有自动编排能力,暖哇更多将LLM融入具体的Workflow。

  • 所以暖哇将LLM销售定义为数字员工,会在销售的整体Workflow流程里直接完成一部分日常工作,并且获得业务成果,衡量效果的指标也是业务转化率。

暖哇与客户采用全外包商业模式

  • 客户向暖哇提供线索,暖哇直接交付结果,不是一个SaaS的逻辑。

  • 对于客户来说,也可以对暖哇直接考核线索转化效果,直接为客户带来收益。


2 企业微信LLM产品设计


LLM销售分工需要融入用户生命周期

  • 一般都会通过企业微信添加用户,并在企业微信里面进行加复购、服务以及整体的保险营销。

  • 在企业微信里,暖哇将用户周期分成三段,LLM也会在不同的生命周期进行不同的SOP编排。

  • 将LLM融入Workflow,也不是简单的按销售线索拆解,而应该按照生命周期,去构思一个小时后该做什么动作,只要把动作拆得足够吸,再去评估里面哪些可以依靠LLM完成,那就可以人机结合。

  • 相当于给每一个销售配一个AI的数字员工,举个例子,每一天有100分钟,原来30分钟做最难的关单的事情,70分钟做SOP或揽客等各种各样的事情,现在搭配了一个所谓的数字员工的概念,让AI大模型把原来70分钟需要做的事情都做完了,他就可以花更多时间在最难的关单上,使得他需要花在整理SOP等事情上的时间更少,这样对于销售来说,他的线索没有变、他的时间没有变,但他的单位时间产出会得到大幅提高。


生命周期第一阶段:新用户35天内

  • 第一天加进来是最热的线索,销售特别珍惜这个线索,所以第一天我们不会对他做任何动作。

  • 但从第二天开始,销售第二天、第三天、第五天、第七天做的工作很难完全达到我们规划的过程要求,因为要追事情太多所以它很容易变形。暖哇也因此通过LLM来参与第二天、第五天、第七天直到第 35 天的SOP 。

  • 举个最简单的例子,第一天加进来的新用户如果没有成交且没有完成一个语音通话来做保单解析,我们会要求坐席第二天再去激活,再给他进行服务,这个SOP的执行率过往可能只有2-30%,暖哇通过大模型,在第二天对不同的用户基于它的保单、生命周期、使用路径,自动完成这一激活的发送,用户如果回复后,会基于用户的回复做意图判断来做自动回复;

  • 或者会让用户看到他是一个正面的回应、他愿意接受这个调度,那么就给座席,让座席来做外呼;

  • 或者用户说现在没时间,就会在第三天再来给他发。所以这一个小单元,是在第二天和第四天中间去完成整个这样的一个任务。后面可能就是服务,比如营销服务等。

  • 到第35天之后,用户热度就下来了,更多的在于有一些续期、续费等,用户可能在我们私域里做了点击或者有些未支付的行为。一个企业微信的销售的私域里整能会有几千个用户,用户每天会在整个私域里面会做很多行为,比如给家人加复购、点击页面、浏览等,这些信息都会变成一个雷达或者工单给到销售,跟他说这个销售机会。但一个销售一天的时间是有限的,他可能只会筛选ROI最合适的销售去做,剩下的部分他可能就不做了。


生命周期第二阶段:35-365天

  • 暖哇会用大模型直接帮助座席,把座席觉得没有价值的任务直接做了。

  • 举个最简单的例子,如果用户在第三期没有缴费,这时会有一个任务工单给到座席,要求座席提醒用户回来缴费,过往觉得一方面这个事情比较难,另一方面解释的事情比较多。

  • 现在用大模型做了整个Workflow的SOP,直接帮座席发送,发送完后如用户回复询问多少钱或者退单等,紧接着会帮助他去做整个意图的识别和回复。


生命周期第三阶段:365天后

  • 关注线索出去的逻辑,因为一个销售,如果只有线索进来没有出去,那么一个销售服务的客户有无上限的增长,过去我们发现一个销售可能有5万或7万客户,需要几个手机不同的企业微信去服务这些客户,但他是服务不过来的,所以说最终要有线索进来、也有线索出去的这个逻辑。

  • 365 天之后,因为线索已经相对比较稳定,它的整个续保、续费也比较稳定,暖哇会把他转到一个托管,在这个托管体系里会让线索转给真人服务的门槛设得比较高,里面整体的运营活动、所有的通知全部用大模型来做,用户完成了一个支付动作之后才会再转给人来做。


信息群

发前也会有专门的筛选

  • 为了保证内容合规

    ,暖哇同时还有一个服务Agent,把控所有内容的发送,所有企业微信群发都要经过这层Agent,Agent主要做三件事。

  • 第一会看这个用户过往有没有任何负向情绪,譬如说投诉、退保,如果有就不能现在发。

  • 第二会看最近发送的频率,因为有的用户可能已经做了很多事情,不希望打扰,那么会给他做一个简单的编排,譬如说一天之内发了两条以上信息,就会把这个发送调度到后面再来发。

  • 第三是指一个很大的key point,非本行业人士可能不太了解,过往所有的私域里都会有一些群发任务,实际上给到座席销售的时候,座席都在下班时候再点。因为如果他跟用户正在聊的时候突然发个节日祝福,就很突兀,所以服务agent一个核心作用在于发消息的时候直接会把正在与用户聊天的这个人筛出来,即正在销售的这个座席不会收到这个群发任务,这样就不会打断他销售节奏。

  • 同时企业微信的整个体系不能直接群发,必须通过座席手动点击才能发送客户。所以在企业微信的后备栏里做了一个智能话术,并且是由企业微信的工作台里直接跳一个任务,任务点进来后直接到智能话术,然后坐席点击发送就可以直接发出去。


让LL

M销

售完

成闭环

  • 把事情拆解成

    一个个小闭环,一个用户状态和一个线索进来之后,我求大模型判断用户状态和判断下一步应该做什么,然后直接完成这个事情,即生成完后发给他,发完之后在最后有一个结果判断,用户回复后评估是自动在用LLM回复,还是满足一定条件后用人工来做服务,这里就是一个小的闭环。

  • 刚刚拆解的Workflow的三个阶段都是基于这个最小单元粒子来做的小闭环,核心拆三个阶段的区别是什么呢?区别在于第一个阶段我很简单就转给人,第二阶段可能需要有一些正面的回应或者识别不了我才给人,第三个阶段是必须成交一些小的单子再来给人,所以整体是把这个漏斗、基于阶段来做区分,但是整个LLM都是完成闭环。


拆解SOP数量

  • 第一阶段(T+35天)

    大概有5个SOP,刚开始进来需要做用户激活和解析,后面是整体服务的解析、理赔的解析,包含了激活、解析还有自动回复。

  • 35天后,以做的有价值的点大概30-40个,再到后面可能就更多了,可以理解为有点类似T+X的运营策略的迭代和替代。


3 企业微信LLM模型选择


用大模型做比用Bert好

  • 现阶段都是用大模型来做的,原因在于大模型解决了很多原来Bert解决不了的问题。

  • 一是成本问题,包括标注成本和建模的成本。

  • 二是Bert很难去做建模,识别一些用户的意图。举个例子,现在做的意图判断是用户说没有时间、想约再多的时间,用户可能有同类型的保险、用户对保险不信任或者用户对保险公司的品牌可能有疑虑,这一类型的意图其实用Bert是比较难做的,但这类型意图在workflow里又是比较重要的。所以基本上激活时的内容生成全是大模型的,然后中间的一段意图判断即回复等都是用大模型来做的,现在Bert用的比较少。

不同SOP会分多个大模型来做

  • 在做意图判断时候,泛化有价值,在续期续费的节点、激活的节点它的意图判断可能会有类似,这里finetuning的是同一个。

  • 在做内容生成时候,在prompt engineering,在few shots里放很多案例,所以这里不同的模型需要不同的单点表现,更多跟样本相关性比较大。所以都是单独地做单点的finetuning。

  • 不同的模型有不同的北极星指标,衡量的并不是产品做出来怎么样,而是衡量这一个点的模型能力,通过数据迭代、数据闭环能够让模型能力变得越来越强,这个模型能力只在这一个点上有体现。


不同大模型

的原因多数从测

试成本考虑

  • 自己搭了一套线上数据回流,做完线上数据回流后,运营同学来做标注,标注完后,用大模型来做finetuning,做prompt engineering。

  • 然后有大模型表现的批测和prompt的版本管理和批测,批测的意思是因为大模型有幻觉问题和大模型内容生成没有一个很好的判断标准的问题,所以会用同一套prompt、同一套输入,让不同版本的prompt和模型跑100次,然后让运营来看这100次里哪一个做得更好。

  • 在测试和判断效果的时候,如果只修改一个地方,但还是要做全面的回归测试,就很麻烦,现在通过不同的大模型就可以降低成本。

  • 同时在一个单点的一个内容生成的表现,不希望因为它的finetuning导致别的地方受到影响。

  • 所以对于单点,可以理解为是拼积木,现在在每一个点里面做乐高,但不希望做的这个形状的乐高会对原来别的形状乐高有影响。

4 行业Knowhow以及横向拓展


Knowhow对提高模型准确率非常关键

  • 暖哇定义了 13 -14 个简单的保险领域的意图,然后把用户的语料怼进去,让所有的大模型千问、GPT、星火、质朴等去做识别,准确率在65%。

  • 不做任何的prompt engineering、不做任何的微调,在这里其实有一个巨大的差异,整体如果做了微调,可以快速提高到80%,暖哇现在大概是88%-90%。

  • 所以肯定是车险做一套、健康险做一套、卖贷款做一套,但这个成本又没有想象那么高,核心是domain的know how大家到底愿不愿意投入,因为搭一个SCRM、一个几千人的团队,也非常麻烦。

数据标注也非常依赖Knowhow

  • 最大的成本在数据标注上,最大的难点在于过去这种领域知识一定会产生所谓的意图混淆,或者说不同的人对一个东西的判断不一样,就是我觉得这个话术好、他觉得不好。

  • 这个时候要运营去标注,暖哇的标注也是全职的运营同学在主导,不同的人标同样的数据结果会有巨大的差异。

  • 之前解决这个问题的方式就是只让一个人来做所有这个单点的标注,但一个人能标注数据可能只有这么多,而且他本身也有运营的工作,所以这里面实际在产能上会有一个比较大的影响。

  • 现在会用不同的大模型先去做一轮预标注,预标注有冲突的再去让人做介入。

  • 另外一个点是不同的人,他是双盲的,不同的人标的又不一样,再来去做一个介入,更多地通过一些technical的手段使得这个标注成本越来越低。

  • 数据标注很难,之前很多时间都花在数据准备上,还有Workflow SOP的编排上。同时没有什么东西可以学,大家都是不太成熟的方法论,现在的方法也是自己摸索出来的,摸索成本也花了很多。

数据标注怎么把模型从65分提高到80分以上

  • 譬如说让大模型推动用户续费,怎么标注,以及怎么改善?因为我们不涉及多模态,所以我们的标注实际核心是优化模型的三个能力。

  • 第一个能力是生成能力,生成能力是用户没有跟你说话,你主动的跟用户说话,生成出来的内容文案你会有好不好的标准。将T+X的运营策略说得更多样一点,或者对转化更帮助更高一点。

  • 第二个模型能力是用户回复完后的意图识别,或者说用户整段对话的意图判断和意图识别,以及这里卡点的判断,都统一把它分类为分类问题。

  • 第三类模型能力在于分类完后或者说用户回复完后的回复问题,前置输入不仅仅单纯是用户的状态和用户的画像,还有用户之前跟你说话的问题,他是期待你做回复的。

  • 对这三个东西的标注都不一样,第一个是生成的好不好,好是怎么样;第二个是分类的准不准,第三个是回应的得对不对。

  • 这个好不好的概念是对大模型生成的语料做标注。如果不对大模型做的语料做标注,你没法做SFT。说白了现在大模型做的是70分,做了100次,把这100次里面做得好的挑出来,做得不好的告诉它为什么不好,他应该怎么样变好。

  • 通过SFT它就能够变成 65分、70分、75分、80分,你是让他把更多的他原本不具备的知识通过 SFT 的方式压缩给他,那么它就能够更趋近你标注的人的能力。标注的人90分,大模型60分,通过标注来把我的领域知识压给他。

对数据标注的人和管理的要求也很高

  • 暖哇目前现在都是运营和产品的同学在领导标注业务。本很高,但是如果成本很低的话,做完就没什么壁垒。

  • 标注的需求也与短视频等标注需求完全不一样,视频的标注,更多的在于它是什么内容或者是什么标签,最终用于搜广推。但LLM标注主要用于生成或者分类,标注用户对保险意愿强不强、用户是否对价格有疑虑,是完全不一样的领域和要求。

  • 同时,也需要积累大量的数据,要做整体的会话存档,最好过往也对此有标注积累。

  • 标注的管理流程也非常互联网。上线、上线完后有数据、有数据后做SFT、SFT完后做不同版本SFT 出来模型的批测表现和衡量,最终再做一个迭代。期望的迭代开发的版本像我互联网的动态发布,即可以不用开发去调数据,promp和模型上线后,能够实时看到数据回流,实时得看到做标注,标注完后直接可以改prompt、直SFT,上线完后立马可以看到结果。就等于把整个workflow的闭环压缩到1-2天。整体有点像动态发布一样,就等于持续发布,现在其实我们还是按周的,其实可以压到1-2天。

拓展到其他险种难度还好,但拓展到非保险有难度

  • 保险产品剁是从寿险衍生出来的,大是基于类似的形态来做一些类似的东西,从本质上说保险产品它都是由保险条款、保险产品报价和最终客户服务组成。

  • 所以大的SOP框架和销售点不会有太大区别,更多的是在付费方式和销售卖点上。框架不会有太大的改变,大部分都是需要月缴或者说是需要年缴,并且他的付费方式是线上支付然后线上做理赔的产品,只是说产品里面填充的内容或者sourcing可能会有区别。

  • 在保险领域做迁移我觉得是比较简单的,但是对于别的行业,比如像卖车,车这个商品和保险完全不一样,我觉得会比较有难度,因为车的SOP,包括邀约去4S 店,4S店做完后是否还要贷款等。这与电销和卖课有巨大差别,因为卖课还得叫他回来上课、给老师评价等各种事情。

  • 再看在线教育,在线教育难度是介于线下卖车与卖保险中间。因为在线教育也是有小班试听、试听完后卖大课,大课其实跟一个大的保单类似的建制,成交链路也完全在线上,保险需要做续期、它需要做课程回访,这些以及有线上贷款其实相对来说都能去做好的迁移,但是不涉及到物理世界线下的那个点,觉得相对来说跨行业的迁移都是比较简单的。但是涉及到类似卖车这种可能要去线下看的,就相对来说比较难。


5 企业微信数字员工ROI


可以在相同人力下带来15-20%GMV提高

  • 暖哇大概有200个企业微信的销售座席,刚说的这些功能全部都已经上线,不是只有几个人用,是全量上。

  • 整体我们衡量ROI的指标非常严格,只是按照最终的产出来衡量。

  • 举个例子,刚刚的第二天的功能,在第一天线索没有变化、销售人数没有变化、佣金也没有变化的情况下,通过大模型的方式去做第二天的激活和第二天的转化,单纯第二天的转化率提高77%,整个第二天的转化率能够有77%的提高。

  • 在整个生命周期里,整体现在应该是15-20%的GMV的提高。

  • 这都是建立在所有别的变量没有变的情况下,不过前端流量肯定会有一些波动的变化、这个没法控制,但是销售的佣金和整体的线索量都没有变。就是因为大模型做了很多原来他不做的事情,或者说把他原来SOP不执行的事情执行出来了。

相比于带来的GMV提升,Token成本这些不重要

  • 暖哇是从带来收益角度考虑,Token的成本几乎可以忽略不计,与带来的收益不是一个量级。

  • 目前还没有完全回本,因为更多的成本还是在数据标注等工作上。以及为了整套系统已经投入了一年多时间,还需要把Workflow做得更深入,像考核员工一样去考核单点回收能力。

落地也需要打磨

  • 第一个是接受度问题,让销售接受这一套对他是好的,就能够帮他赚更多的钱,所以他就更愿意拥抱这个事情,但如果是跟客服说我要把你裁掉,他肯定不愿意。

  • 第二个是部门墙的问题,对于部门墙问题,因为暖哇比较特殊,业务、运营、产品都是我负责,所以大家背的是一个目标,这里就不会有太多落地的事情。但价值宣导肯定需要一定时间投入,要改变产品经理的想法,因为现在做产品与原来做产品完全不一样。

  • 另外一个是让运营和业务同学觉得这个东西是有价值的,如果一上来你跟他们说这东西就只有60分,需要你慢慢教它才能让它的能力变得越来越强,大家就愿意给这个东西付出耐心,这些都是需要花一些时间成本去沟通的。不要把这个当成一个很fancy的东西,把这个东西当成不做就会挂,大家就有这个紧迫感。


6 电销数字员工产品


电销与企业微信的不同

  • 电销最大的问题在于企业微信发送成本很低,但电销需要支付座席成本、线路成本,以及做外呼的话还有接通率问题、话费问题及投诉的问题,整个业务形态都不太一样。

  • 从业务流程的角度,无论是保险行业还是别的行业,企业微信更像私域长线经营,企业微信的成交有群发、朋友圈、直播甚至有名片,是否修改名片对企业微信的成交也有影响,这其实很像互联网的运营逻辑,就像运营一个公众号。

  • 但是对于电销,跟客户的接触是一次性的,意思是这一通电话时间里跟客户有接触,但不打电话的时候我跟客户没有接触,每次与客户的触点就是在打电话的时候,然后才能去做成交。

  • 这里面对成本、时间、声纹、接通率、号段等细节都会有一个很大的差异,基本上是两个完全不同的逻辑。

  • 这两者比较相同的点在于如果把实时语音、语音通话通过ASR转译完后它都是纯文字、不是富媒体的,沟通的内容都是跟客户去做同一个 domain的销售动作,有一些知识可以泛化。

电销对于Latency以及节省座席反应时间要求也很高

  • 在座席场景下会分打电话前、打电话中、打电话后和管理端。刚刚说的是打电话中,沟通的过程中其实对信息反应不过来,只有一些可能能力、技能比较差的座席他会对着给他的提示照着念,但是实际上很多时候他会反应不过来。

  • 所以在实时沟通的过程中,整个大模型能够对坐席销售的帮助,从目前做出来的效果看可能不是很好,就是没有像企业微信那样有立竿见影、巨大的提升。

  • 现在为了节省座席反应时间,可以给一些关键词,Bullet Posint+小段建议话术,同时还要在交互上继续优化。

电销目前适用的场景

  • 大模型在电销场景下整体的应用,第一个最明显的应用在线索分层里面,因为过往都是有录音的,电话销售其实很少能够一次性成交,有点像搜广推,原本搜广推建模是用标签,现在有大模型后,就可以把原来的语料做整体的向量化,向量化之后跟成交度比较高的去做整体的聚合聚类,就会有新的特征出来做建模,这样其实对整个线索分成和线索分配的帮助是很大的。

  • 二是去解决特定的一些问题,其实也可以基于过往的语料去做整体的销售分层,可以理解为不同的销售技能点不一样,但原本其实这个技能点是很主观的,但现在其实可以根据过往的成交通话的逻辑,就大模型可以让销售的技能点打在销售身上,这里做线索分层、线索跟销售的匹配都有了更多基于语义的特征来做建模,会有一个立竿见影的效果。这是针对打电话前。

  • 三是销售有最难的三点:1.开口,2.聊下去,3.关单;核心问题在于第一我打电话不知道聊啥,第二在聊的过程中我怎样解决客户问题,第三在聊完后我不知道怎样去关单,唠家常唠一个小时也卖不出去。大模型首先解决开口问题,一个是在复播、另一个是在打电话之前都会给画像、之前沟通的逻辑和开口建议。打的过程中现在做得一般,但对于打的结果,打完后会自动的给他打结束码、跟他说复播的优先级、还有说下一次开口建议,目前在这些逻辑里做得比较多。

电销从效果上看关单率明显提高

  • 第一个点,关单率相对来说是可以有比较明显的提高。对关单率的帮助效果非常明显,一个是搞所有线索建模的分配,可以理解为是一些运筹学的问题,线性规划,100 个线索、10 个销售,不同的分配肯定很复杂。第二方面其实我规范了销售的SOP,在一个电话里,打完第一通电话后下一通什么时候打、下一通打得时候注意说什么,是拿个小本来抄的,然后下一通电话打的时间其实也是他自己乱标的,所以想象中的销售应该做的SOP,其实落地执行时都会变得七零八落,现在有大模型之后可以把这个东西做得更好,其本质上在SOP上是有逻辑、有原因,如果你follow SOP它一定就会做得更好,所以这方面大模型在电话后和电话前都会有一个比较大的一个帮助。

  • 第二个点,节省座席时间其实不是通过刚刚说的电话前、电话中、电话后,在电销场景里面节省通话时间是通过做AI外呼,AI外呼加转接或者AI外呼加企业微信,所以是通过AI外呼的技术路线去解决一定问题。但现阶段还没有看到有厂商是可以通过AI外呼直接做完大额产品关单。指的是用大模型,不是NLP模式,NLP带流程、打个电话让用户成交这个已经满街都是,但是目前没见到用大模型来做这个东西。

中美在电销节省时间上有差异

  • 中美有巨大差异,在中国点一下结束码就等于是summary。现在大模型做了很多补全,国内已经非常节约时间了。

  • 在美国可能电话后的时间占比还比较高,所以美国的Copilot很多在强调电话后的帮助。

电销与电话客服底层逻辑的不同

  • 客服的进线是固定的,如果效率更高请的人就更少,这是一个降本的概念。

  • 但对于销售来说,线索很多时候是买的或是投放的,那么在后端的转化更高,我在前端可以付出更多的成本,可以买更多的线索,所以我的线索总量是不会变的。我不会因为做了这个事情裁任何销售,反而会请更多的销售。

  • 只要边际利润率为正,电销就应该去做更多的线索。

电销未来的提升方向

  • 在短期技术路线上关注的比较多得所谓voice agent的这一块,这里面涉及很多问题,第一个是你的并发量到底能不能去做大规模AI外呼的并发,因为超过 10 万对于中国公司来说就是一个大的一个门槛。

  • 二是第一步开口时的声纹对转化的影响会非常高,所以开口第一步应该用什么样的语音来做。同时,如果做AI热转接的话,开口的声纹与后面的坐席如何做一个衔接。

  • 三是现阶段大家都用一些修饰词去解决延迟问题,如果大家有留心听AI外呼,你接起来的时候AI会说“你终于接我电话了”然后再去拨一段语音,在说“你终于接我电话了”的时候其实就是在latency的问题,请求大模型给他做整个语料的生成。

  • 现阶段我能看到的所有在用大模型AI外呼的,还没看到能够完成直接关单的效果,到底要多久能做到我们保持跟进状态,因为我们还是做应用比较多,我们不太了解技术做得怎么样,GPT 4o出来后做了一些小规模的测试,还不太能够达到能够完成销售工作的程度。

也会用大模型+Bert/录音解决部分延迟问题

  • 这在工程上是一个很普遍的做法,也没有太多的know how,解决的方法相当于你用NLP做一套、LLM做一套,然后在用户意图判断里两边做打分。

  • 其实现在做大模型的一个简单方式是同时搭几个大模型或者大模型跟原来NLP的方式同时做并双方加权。

  • 另一方面原本它有决策树但不知道他会去哪,你用大模型生成后都录音,但最终只播一段,但一共生成了100个录音,可能消耗了额外的成本,最终解决延时的问题。


7 对未来模型的期待


语音架构+自编排能力

  • 第一个点肯定希望说能够做到语音的全替代。

  • 第二个点在于SOP销售节奏的编排,举个例子,现在把workflow 拆的特别细,每一个点是个单点,单点怎么搭、这个积木怎么搭起来是我搭的,但是按理来说大模型应该对于不同的人搭不同的积木,但目前大模型不具备这个能力,大模型不知道所谓的SOP销售编排的能力。

  • 大模型不知道节奏怎么定,这些agent架构都试过,在论文上写得很好但其实使用过程中都会有各种各样的问题,一个东西如果没达到90%的效果其实很难投产,或者说我做的很复杂的所谓planning agent,最终它产生的价格的边际提升没有我想象中那么高。但模型如果足够多的话它对用户的理解足够深,如果它在销售编排上能够做到的话,对我们来说会是一个非常非常巨大的改变。


今晚我们有一场直播讲新书
我们的新书正在发售



【讨论会】过往的讨论会纪要请参考:

《EP01:AI如何颠覆数据库讨论纪要》
《EP02:AI如何颠覆游戏讨论纪要》
《EP03:生成式广告讨论纪要》
《EP04:AI如何颠覆办公与CRM讨论纪要》
《EP05:AI时代产品经理的新要求讨论纪要》
《EP06:AI如何颠覆网络安全讨论纪要》
《EP07:AI如何颠覆设计流程讨论纪要》
《EP08:AI如何颠覆可观测性工具讨论纪要》
《EP09:如何突破英伟达垄断》
《EP10:AI如何改造传统工业讨论纪要》
《EP11:AI如何改造推荐系统讨论纪要》
《EP12:AI如何重塑教育讨论纪要》
《EP13:OpenAI DevDay带来大变化》
《EP14:到了颠覆AI客服的时候了吗?》
《EP15:RAG带来蓬勃应用生态》
EP16 GPT4o对实时互动与RTC的影响
EP17 AI Coding以及对Coding软件的影响
EP18 呼叫中心与Voice Agent讨论纪要
EP19 长文本vsRAG(对谈月之暗面与Zillz)》

欢迎加入共识粉碎机的活动讨论群,获取更多活动信息


OpenAI o1模型十问十答


NV大涨与RL自己的Scaling Law

共识粉碎机
寻找与共识的不同
 最新文章