大语言模型数据泄露堪忧,超自动化Agent成解决之道
数据泄露成LLM应用最大障碍,看实在智能如何用AI Agent破解谜题
从实在RPA Agent智能体安全机制,看AI Agent如何破解LLM应用安全谜题
文/王吉伟
阻碍广大企业应用大语言模型(LLM,Large Langeuage Models)的诸多因素中,无疑数据安全是最重要的。
3月份ChatGPT发生了用户隐私数据泄露事件,OpenAI声明由于开源代码库中存在一个漏洞,使得部分用户能够看到另一个用户的聊天标题记录,并把ChatGPT短暂下线紧急修补了此漏洞。
此事件,让大家认识到大模型并不是“大安全”。
更要命的,是用户使用LLM时会不经意输入敏感数据。仅在三月份,三星内部就发生了三起误用及滥用ChatGPT案例,其中两起关于三星半导体设备,一起关于三星内部会议内容。
以致有网友调侃,三星再多几次敏感数据泄露,ChatGPT就能教大家制造先进芯片了。
在三星等多家企业出现事故后,很多企业都意识到了LLM使用可能造成的数据泄露问题。就在5月份,苹果公司也限制员工使用ChatGPT和其他外部AI工具。当然,苹果公司也在开发自己的LLM产品。
不只是苹果公司,摩根大通、美国电信运营商Verizon等公司都已经宣布禁止使用ChatGPT等应用,亚马逊也希望工程师们使用内部AI工具。
就在11月10日,投资了OpenAI并为广大企业提供OpenAI云服务的微软,因为担心公司机密数据泄露,竟然也开始禁止员工使用ChatGPT,建议员工使用自家的Bing Chat工具。
出于数据安全忧虑,美国银行、花旗集团、德意志银行、高盛集团等多家金融机构已经禁止员工使用ChatGPT聊天机器人处理工作任务,日本的软银、富士通、瑞穗金融集团、三菱日联银行、三井住友银行等企业,同样限制了ChatGPT和类似聊天机器人的商业用途。
现在,这些企业有的与OpenAI合作进行了私有化部署,有的已经研发了自有大语言模型。
数据泄露对企业的危害
多家机构如此重视,人为数据泄露到底能为企业造成多大伤害?
数据安全公司Cyberhaven曾在一个报告中,调查了不同行业客户160万员工的ChatGPT使用情况。
报告数据显示,自ChatGPT推出以来至3月21日,8.2%的员工曾在工作场所使用过ChatGPT, 6.5%的员工曾将公司数据粘贴其中;仅3月14日一天,每10万名员工就平均给ChatGPT发送了5267次企业数据。尤其是敏感数据,占到员工粘贴到ChatGPT的数据的11%。
这意味着,ChatGPT的使用率越高,敏感数据泄露的也就越多。
试想如果不加限制地使用LLM,随着更多敏感数据被传输LLM服务器,并被用作模型训练数据集,也就意味着竞争对手通过随意的聊天对话就能获悉了你的核心数据。如果竞对用这些数据建模对你进行降维打击,会对企业会造成多大损失?
数据泄露会造成严重的企业的信任度降低,让业务连续性受到影响,并可能会带来一定的法律责任。
看到这里,你就应该明白为何大型企业都在构建自有大语言模型了。
当然,凡事皆有利弊。虽然对话式交互的生成式AI会造成敏感数据泄露,但AI和自动化的使用,整体上正在降低数据泄露的成本。
IBM的《2023年数据泄露成本》全球调查数据显示,广泛使用人工智能(AI)和自动化的组织受益,平均节省了近1万美元的数据泄露成本,并将数据泄露识别和遏制速度加快了8 天。
也就是说,只要恰当使用LLM,注意安全防控,它会对企业的增效降本起到明显的作用。
LLM泄露数据的几个原因
想要实现LLM的安全使用,需要分析数据泄露的相关因素。
从已经发生的实践案例来看,造成ChatGPT等LLM数据泄露的主要原因,大概有以下几点:
1、用户隐私泄露:在使用ChatGPT进行客户服务时,企业通常需要获取用户的个人信息,如姓名、地址、电话等。这些信息一旦被未经授权的第三方获取,便可能导致用户隐私泄露。
2、内部安全风险:ChatGPT作为一款人工智能语言模型,其生成和处理的敏感信息可能包括企业内部的商业机密、计划、策略等。如果这些信息被恶意利用,可能会对企业造成严重损失。
3、系统漏洞:尽管ChatGPT具有强大的技术实力,但其系统仍可能存在漏洞。如果黑客利用这些漏洞入侵企业服务器,便可能导致数据泄露。
理论上,只要我们针对性的解决这几个问题,LLM的安全使用也就不在话下。
现在,很多引入LLM的企业基本都建立了风控机制,按照LLM使用流程的先后顺序,这些机制包括加强安全培训、定期审查系统、加密处理敏感信息、使用可靠的人工智能服务提供商、建立应急预案等。
在这些安全措施中,大家会发现“使用可靠的人工智能服务提供商”这一点最为重要,毕竟引入一个具备高度安全机制的LLM会事半功倍。其他几点也能起到一定的作用,但多是为了防患于未然以及事后补救,并且其中的很多人为因素难以避免。
与此同时,随着技术的不断发展,LLM的应用也进入到了AI Agent阶段。
AI Agent有效避免LLM数据泄露
AI Agent是由AI驱动的程序,当给定目标时,能够自己创建任务、完成任务、创建新任务、重新确定任务列表的优先级、完成新的顶级任务,并循环直到达到目标。
使用AI Agent,只需输入一句话或者更简单的指令,就能通过理解与分析获悉用户的意图,进而规划并执行一系列任务,最终输出详尽而具体的答案。
AI Agent不仅让输入更加简单,也在一定程度上提高了安全系数,有效避免了数据泄露的可能,还能最大限度发挥LLM的能力。
AI Agent正在快速影响更多领域,超自动化领域也是如此。目前厂商们都在积极引入或自研大模型,并基于这些大模型打造Agent,以从安全、易用性等各方面提升超自动化的应用效率。
当然,超自动化Agent在数据安全方面远不是减少提示词输入那么简单。
超自动化Agent破解LLM安全谜题
超自动化领域如何通过AI Agent提升安全系数呢?
这里王吉伟频道以实在智能业界首发的实在RPA Agent智能体为例,介绍超自动化Agents如何保障用户数据安全。
实在RPA Agent智能体是基于实在智能自研垂直领域大模型TARS构建的RPA\超自动化智能体,是一种能够自主拆解任务、感知当前环境、执行并且反馈、记忆历史经验的RPA全新模式。
为了让用户更安全的使用AI智能体,实在RPA Agent智能体在TARS大语言模型和RPA工具包都设置的多重安全机制。
需要说明的是,这种整体安全解决方案非常适用于一些大型企业的LLM应用安全过滤。
出于安全考虑,企业都希望在应用LLM时过滤内部敏感信息。
目前市面上的数据安全管理软件,功能丰富但应用复杂且价格不菲。为了LLM数据过滤这种单一应用场景而斥巨资购买全数据监控软件,显然过于浪费,并不是LLM数据过滤的最优选。
事实上,这类需求更适合LLM技术供应商基于大语言模型技术路径去做。只需在其LLM产品体系中添加隐私数据过滤功能,为企业用户开放不断更新或增删敏感数据库内容的权限。
这种模式,不仅能为本身大语言模型提供过滤安全功能,还能用于企业所使用的OpenAI、文心一言等第三方大语言模型,能够在最大限度保护员工创造力的同时做好公司敏感数据的防护。
这样,企业就能实现花一份钱去保障更多LLM的安全。
如果你的企业正在为LLM的应用安全及预算而发愁,不妨试试实在智能的这种安全解决方案,或许会让你眼前一亮。
推荐阅读
AIGC研究系列文章
【万字长文】全球AI Agent大盘点,大语言模型创业一定要参考的60个AI智能体
RPA终极发展方向瞄准AI Agent,超自动化智能体时代已经开启
产业上下游齐发力LLM挺进端侧,大语言模型加速落地利好超自动化
从引入并集成多LLM到发布自研模型,RPA与LLM的融合进度怎样了?
ChatGPT与RPA集成,生成式AI+自动化流程让AIGC价值倍增
产业上下游齐发力LLM挺进端侧,大语言模型加速落地利好超自动化
业务流程将因生成式AI变革,ChatGPT引领的AIGC正在改变组织运营
更多组织接入ChatGPT等生成式AI,生成式自动化或成企业运营新标配
AIGC模式正在影响更多组织,十个案例助你深度认知生成式AI
多家厂商引入ChatGPT,集成与融合生成式AI成为RPA技术新趋势
基于AI构建的当代RPA,在生成式AI影响下的生命周期还有多长?
生成式AI与客户体验有什么关系?如何影响客户体验?一文看明白
生成式AI席卷PPT制作,办公生产力迎来大变革,附20个正在流行的AI PPT制作工具
LLM时代到来,生成式AI会成为超自动化蓬勃发展的催化剂吗?
AIGC持续火爆大模型争相推出,庞大市场造就算力供应模式演变
从“人+RPA”到“人+生成式AI+RPA”,LLM如何影响RPA人机交互?
生成式AI正在颠覆装饰装修领域【文末附28个AI装饰设计工具】
从LLM特性与数字化转型本质,看大语言模型对数字化转型的影响
2022-2023上半年全球RPA融资盘点:海外项目占比67%,总额165亿元
从AI模特换装到AIGC赋能运营,生成式AI全方位渗透电商产业链
期待点赞、在看、评论、转发,您的支持就是我的动力。 鼓励积极评论,您的留言可以成为选题。
欢迎阅读其他文章,或会激发您的更多思考。
点击左下角“阅读原文”查看AIGC研究系列文章,后台回复【加群】申请加入AIGC行业应用交流社群。