AI应用开发,你必知的6大概念(附企业AI应用行动指南PPT分享)

文摘   2025-01-31 07:01   上海  

推荐笔者文章>>作为CIO,必须清醒面对人工智能(AI)在企业数字化转型中的深度应用与挑战

一、什么是智能体 (Agent)

智能体 (Agent)是一种能够感知环境、做出决策并执行行动以实现特定目标的智能系统。而基于LLM(Large Language Model)的自主系统,则是一种模仿人类行为模式,通过独立思考和调用工具逐步完成给定目标的新型自主系统。这种系统与传统的人工智能系统存在显著差异,它更加灵活、自主,能够更好地适应复杂多变的环境和任务。

二、通用智能体平台

通用智能体平台以Agent为核心技术驱动,通过在智能体的感知、记忆、规划和执行等关键环节进行能力攻关,以适应不断变化的实际业务和日常办公需求。该平台能够提供更加个性化和精准的服务,助力工程人员解放大脑和双手,提升工作效率和准确性。同时,它也推动了自主系统在更多复杂场景下的应用。

三、LLM(Large Language Model)解析

定义:LLM是一类基于深度学习的人工智能模型,旨在处理和生成自然语言文本。通过训练于大规模文本数据,LLM能够理解并生成与人类语言相似的文本,执行各类自然语言处理任务。

训练及使用:LLM的训练过程分为预训练和微调两个阶段。预训练阶段,模型在大规模未标注文本数据上进行自监督学习,学习通用的语言表示;微调阶段,模型在特定任务的标注数据上进行有监督学习,调整模型参数以适应具体任务需求。LLM的使用方式包括直观的日常使用和基于LLM的AI应用编程。

基于LLM的Agent框架:该框架对标人类大脑,具备思考如何解决问题、给出回答的能力。同时,它还拥有长期记忆和短期记忆,能够记录智能体使用的历史记录、系统数据以及执行过程中产生的各种中间信息。在规划技能方面,该框架具备提示词编排、意图理解、任务分解和自我反思等能力。此外,它还能够调用各种工具接口来执行任务。

四、Transformer架构与参数规模

Transformer架构:LLM的核心技术架构是Transformer,这是一个基于自注意力机制的深度学习模型。它能够并行处理序列数据,大大提高模型的训练效率和性能。

参数规模:LLM通常采用大规模神经网络,参数数量从数百万到数十亿不等。例如,通义干问(Qwen-7B)具有70亿的参数规模。参数规模的增加使模型具有更强的学习和泛化能力,但也带来了计算成本和资源需求的显著增加。

五、RAG(Retrieval-augmented Generation)技术

定义与背景:LLM在回答用户问题时,是基于训练时使用的文本数据进行的。然而,面对未知知识的问题,它容易产生错误的结果,即大模型的幻觉。为了解决这个问题,RAG技术应运而生。

原理与优势:RAG通过构建一个检索信息组件从外部知识源获取附加信息,馈送到LLM prompt以更准确地回答所需的问题。这样不仅可以减少LLM产生幻觉的倾向,还可以提高回答的准确性。同时,基于RAG技术创建的知识库可以比较便利地增删改其中的文档,支持更频繁的更新。

整体流程与效果:RAG的整体流程分为事先的索引(Indexing)和即时的查询(Querying)两大步。通过先检索后生成的方式,赋予LLM回答私有知识库问题的能力,并提供了回答中引用的原文出处,提高检索效率。

六、提示词(Prompt)的编写与优化

定义与分类:提示词是指向LLM提供输入以引导其生成特定输出的文本或指令。它包括系统提示词和用户提示词两类。用户提示词即为用户的问题;系统提示词为人工智能应用内置的指向LLM的一组初始指令或背景信息。

对LLM的影响:提示词的质量直接影响LLM生成的回答的质量。更完善的提示词能够让LLM更好地理解用户意图、给出更契合的回答。

如何编写更好的提示词:为了编写更好的提示词,需要明确指令、指令的对象、示例、输出要求以及异常情况等组成部分。同时,还需要结合具体的应用场景和需求进行编写和优化。例如,在询问出差规划时,可以编写包括角色、背景、技能、目标、约束、输出格式、工作流程和示例等内容的提示词来引导LLM生成满意的出差计划。

智能体、LLM、RAG以及提示词等技术在人工智能领域发挥着重要作用。通过不断优化和完善这些技术,我们可以推动人工智能向更高水平发展,为人类带来更多便利和价值。

--未完待续,下载见文末--


推荐阅读>>

点击关注公众号:数字神化,在公众号聊天窗口发送:AI应用,即获下载链接~

点击加入知识星球获取全部资料(定期更新)


数字神化
企业数字化转型实践经验积累分享,企业架构、IT规划与运营、数字化转型、智能化、智慧工厂、智能制造等相关管理咨询, 实战淬炼与随感~各类方案汇报与演示PPT、PDF分享~
 最新文章