AI Native技术重构软件产品白皮书(三)

文摘   2024-06-28 12:00   北京  


编者荐语:



在当今数智化时代,人工智能技术浪潮以前所未有的速度重塑着软件行业的面貌,基于海量互联网数据训练的大语言模型逐渐呈现通用人工智能的能力特征,并深刻改变着人与机器的交互模式。

《AI Native技术重构软件产品白皮书》深入探讨了基于第一性原理AI Native技术重构软件产品的方法体系与指导规范,系统阐述了AI Native的理念、架构设计、构建方法以及其对未来发展的重要影响,介绍了AI Native重构软件产品的研究成果和实践经验。期望本白皮书能够促进业界对AI Native概念的共识,并将其应用于产品实践中。

今天,我们推出的是系列文章的最后一篇——《AI Native重构软件产品实施路径》及《总结与展望》。


AI Native技术重构软件产品白皮书

亚信科技(中国)有限公司

四. AI Native重构软件产品实施路径


4.1 使能基础设施:认知增强MaaS平台

4.1.1 MaaS平台功能概述


模型即服务MaaS(Model as a Service)平台将AI模型作为一种服务提供给开发者,是基于IaaS、PaaS、DaaS层之上新的服务层,为SaaS层的应用开发提供AI模型服务,让开发者能够方便地访问和使用AI模型,而无需自己构建和维护复杂的AI基础设施,是通用人工智能AGI赋能应用的基础平台。


随着MaaS层的引入,其所依赖的 DaaS/PaaS/IaaS 层的主要功能会围绕 MaaS 提供相应的能力支撑。DaaS为开发者提供面向大模型的多模态数据服务;PaaS在弹性可伸缩框架上提供大模型所需的中间件与运行环境,如Pytroch、LangChain等;IaaS为大模型提供弹性可伸缩的软件可定义的基础设施环境,如算力网络所连接的xPU算力集群等。


MaaS平台通常包括大模型全生命周期管理和开发运营一体化流程两部分。大模型全生命周期管理面向大模型的开发态,包括模型纳管、模型开发、模型部署、模型评测以及模型安全治理等功能;开发运营一体化则主要面向大模型运行态,提供二次开发以及AI模型服务的使用流程,包括二次训练、提示微调、认知增强以及服务编排等功能。随着大模型的能力越来越强,通用人工智能AGI的成熟,基于MaaS平台的以模型为中心的开发和运行范式,未来将会应用到开发的整个链路。


图4-1:MaaS平台功能


4.1.2 MaaS平台架构设计


目前市面上的AI模型种类较多,例如大语言模型、多模态模型、视觉大模型以及大量传统的小模型,各类模型的运行环境、训练/推理数据、算力资源等要求差异较大,并且当前大模型仍然存在幻觉、推理能力不强、规划能力较弱、工具调用不精准、知识性不足,对世界模型认知理解不足等问题,需要在MaaS平台架构设计上进行充分考虑,以满足应用层对MaaS平台可用性、可靠性要求。

MaaS平台的架构采用模块化、微服务化的设计思路,围绕大模型的开发、运营过程,提供相应的功能组件,在行业落地时按需部署,MaaS平台通常需要包括以下功能模块。


· 基础模型开发:用于开发和运行通用的基础大模型,包括数据标注、模型开发、模型训练、模型推理以及相关的算力和计算框架。


· MaaS认知增强:为了解决当前大模型在行业知识、推理能力等方面的不足,使用MaaS认知增强模块来保障大模型在行业落地时的可用性,真正地融入到行业场景中。具体的能力包括:


1.大模型微调(Fine-tuning):在一个预训练模型的基础上,使用特定任务的数据集对模型进行进一步的训练,以适应行业场景或特殊任务需求。这种方法可以有效地提高模型在特定任务上的表现,同时减少了训练模型所需的数据量和时间,可以使用微调学习迭代技术实现强化学习和持续微调,持续学习。


2.提示工程优化:通过改进和调整提示(prompts)来提高大型语言模型输出的质量、相关性和准确性的过程,使用的策略例如明确任务要求、提供上下文信息、避免歧义等等。


3.RAG(Retrieval Augmented Generation):结合了信息检索和自然语言生成的方法。它主要用于改善生成式对话系统、问答系统和文本生成任务的表现。RAG模型的核心思想是在生成文本的过程中动态地检索相关的信息,然后将这些信息整合到生成的文本中。引入高级RAG技术策略结合业务流程构建高级记忆检索能力,例如上下文感知的检索、多跳检索、动态检索等等。


4.智能体AI Agent:在特定环境中为了实现特定目标而独立运行的软件程序或系统。它能够感知环境信息,并根据这些信息采取行动,以达成预定的目标,使用Agent工作流提升业务适应性和执行精准性。

· 模型安全治理服务:一系列确保AI模型在整个生命周期中安全、可靠和合规地操作和流程。随着AI模型的广泛应用,它们的安全性成为了公众和企业的关注焦点。模型安全治理服务旨在减少潜在的风险,包括数据泄露、模型被操纵、不公平的决策结果以及被用于违法行为等,并确保模型透明度和可解释性。

图4-2:大模型行业参考架构

4.1.3 认知增强MaaS平台构建方法

模型运营ModelOps(Model Operations)[23]是一种将模型生命周期管理自动化的实践,它结合了数据科学、IT运营和业务战略,以确保模型能够以高效、可靠和可持续的方式在生产环境中运行。依托ModelOps构建一个高效、自动化的ModelOps流程,实现数据、模型和服务的快速迭代,提高模型的准确性和业务价值,降低运营成本和风险。


MaaS平台在传统的ModelOps基础上,引入大模型开发、运营所需的基础服务能力、数据能力以及认知增强能力,形成面向大模型的一整套方法体系,从而保证大模型、小模型都能够基于MaaS平台进行开发运营,构建出一个高效、可靠和可持续的生产平台。


构建MaaS平台遵循以下方法:


· 基础服务能力构建:构建端到端的模型开发、评估、部署和安全治理服务, 对接算力资源,为模型的开发训练提供基础设施。


· 数据服务能力构建:构建自动化数据管道,从数据源收集数据,进行预处理、清洗和转换,提供数据增强、数据标注等能力;引入大模型训练、认知增强所需的行业语料库、向量数据管理、行业提示模板等数据服务,并提供面向异构数据的治理能力,保障MaaS平台中各类数据的高质量管理和持续迭代。

· 认知增强能力构建:构建从基础大模型到行业大模型、从行业大模型再到模型服务的认知增强能力,包括面向行业大模型服务优化的开发能力和工具集,如微调、RAG策略、提示工程优化、AI agent管理等,通过编排的方式,提供自动化、智能化的ModelOps流程,为基础大模型的快速落地和持续优化提供技术保障。

图4-3:MaaS的构建方法


4.2 产品设计模式:多智能体应用系统


4.2.1 智能体概念内涵

智能体 (Artificial Intelligence Agent)被定义为运行在特定环境下具有智能行为的计算机系统[24],具有感知、推理、决策和行动能力并可以通过学习和适应来改进其性能,按照已有的知识或者通过自主学习,并与其他智能体进行沟通协作,可自主地完成设定的目标。智能体是人工智能和计算机研究中的核心概念,智能体主要体现在感知、规划、推理、学习、执行以及决策等方面的智能行为特征,成为承载智能的主要实体,具有软件实体、物理实体或者两者结合的实体。


图4-4智能体的概念内涵


自主智能体是能够在没有直接人类干预的情况下,在其环境中做出独立决策和采取行动的计算机系统。它们被设计用来感知和理解周围环境,并执行行动以完成任务。以下是与自主性、协作性、主动性、适应性和反应性相关的自主智能体的关键特性:


· 自主性:自主智能体在没有人类控制的情况下运作,依赖于它们自己的内部逻辑和推理能力来做出决策。它们能够学习并适应环境变化,并根据需要调整工作策略。


· 协作性:一些被称为社会智能体的自主智能体,专注于与其他智能体(无论是人类还是人工的)的互动和协作。它们具有社交智能、沟通技巧,并能够协作和谈判以实现共同目标。

· 主动性:自主智能体不仅仅对环境做出反应;它们还可以通过设定目标和制订计划来主动实现这些目标。它们不断评估环境状态及其实现目标的进展,决定接下来采取什么行动。

· 适应性:自主智能体能够从经验中学习并调整其行为和决策策略。这使它们能够更有效地应对环境变化或目标变化。它们可以改进行动选择,提高感知能力,并根据新信息或意外情况动态调整目标。


· 反应性:反应型智能体是一种基本类型的自主智能体,主要依靠来自环境的即时感官输入来触发预设的响应。它们不具备对世界的内部模型或推理能力。


图4-5智能体的关键属性特征


从技术演进角度来看,大模型爆发之前,基于强化学习的智能体(RL-Based Agent[25])占据主导地位。强化学习在2016年之后取得了较大进展,同时向复杂环境、非对称信息和多智能体协作方向发展,基于强化学习的智能体能够在与环境互动当中进行不断学习改进,并学习到相关知识,这些行为是在训练过程中通过强化学习和群体进化而出现的,在非完全信息环境中观察、行动、合作和竞争等。虽然该智能体有一定适应能力,然而智能体不具备思考认知能力,这限制基于强化学习的智能体在复杂多变现实世界环境应用,存在训练困难,泛化性不足,场景单一、知识能力迁移性不足、多目标任务困难等问题。基于大模型的智能体:LLM/LMM-based AI Agents[26],展现了实现类人智能的重要潜力,采用LLM作为核心控制器来构建具有类人决策能力的自主代理研究领域正在形成,同时还与世界模型、多模态大模型以及强化学习等多种能力耦合迭代。从智能体实现角度,大模型是最好的“大脑”,相比过往单纯强化学习方法,大语言模型或者多模态模型与Agent能够有效结合,实现语言交互、复杂推理决策、灵活泛化、协作交互能力。LLM/LMM-based Agent具备主动认知能力,无需过多干预,包含综合知识、记忆、推理、规划、决策等多领域的主动推理能力,能够主动掌握工具、使用环境提供的接口和信息进行主动判断执行,同时还可持续学习,持续记忆,通过模型微调训练、对齐和强化学习方式适应环境、获得新知识,适应新场景、新目标、新能力。因而,基于大模型的智能体具备超越较强技术优势,为迈向真正具备自主性、主动性、适应性、反应性和协作性的全面自主智能体奠定基础。


图4-6智能体的技术发展演进路线


4.2.2 智能体架构设计


参考业界主流的 AI Agent 设计模式,结合未来演进方向与相关技术趋势,设计可组装的智能体功能模块,以适应不断快速演进的现状。我们针对智能体基础设施、智能体构建、智能体运行管理和多智能体交互协作等层面,对智能体的设计参考模式进行了架构设计。参考业界双通道理论的快慢思考结合方式,增强智能体面向动态复杂问题的规划、分析、判断和决策等思考推理能力。具体来看,架构设计包含静态组件能力和动态工作流模式。


图4-7亚信科技多智能体系统架构参考设计模式


4.2.2.1 静态组件能力


从静态组件能力来看,OpenAI最先提出了智能体的设计模式[27],主要围绕如何利用大型语言模型(LLM)来创建能够执行复杂任务的智能体。包含以下模块:


· 反思(Reflection):LLM 检查自己的工作,并提出改进的方法。这种模式允许智能体在执行任务的过程中进行自我评估和优化。

· 工具使用(Tool Use):LLM 利用外部工具,如Web 搜索、代码执行或其他功能,来收集信息、采取行动或处理数据。例如,智能体可使用 Web 搜索来获取特定问题的答案,或者调用代码解释器来解决数学问题。

· 规划(Planning):LLM 提出并执行实现目标的多步骤计划。这可能包括将大型任务分解为更小、更易管理的子任务,并按顺序执行这些子任务以达成最终目标。

· 多智能体协作(Multi-agent Collaboration):多智能体分工任务、讨论和辩论想法,提出比单个智能体更好的解决方案。这种模式强调智能体之间的合作和交流。

· 任务分解(Task Decomposition):智能体将复杂任务分解为多个小步骤,并使用“思维链”(Chain of Thought)或“思维树”(Tree of Thoughts)来探索多种推理可能性。

· API 调用:智能体学习调用外部 API 来获取模型权重中缺失的额外信息,包括当前信息、代码执行能力、对专有信息源的访问等。

· 记忆:分为短期记忆和长期记忆,短期记忆用于上下文学习,而长期记忆则为智能体提供了长时间保留和回忆信息的能力。


图4-8智能体静态组件设计模式


高领人工智能研究院[26]突出了智能体的任务角色配置能力。复旦大学[28]提出了LLM-based Agent 的概念框架,包含三个组成部分:控制端(Brain)、感知端(Perception)和行动端(Action),类比人类感知能力、推理思考能力、执行和表达能力。智能体可以不断获得反馈并与环境交互实现进化迭代。


4.2.2.2 动态工作流Workflow


智能体不仅仅局限于执行特定的自动化任务,而是能够自主地追求复杂的目标和工作流程,具备在有限人类监督下的自主决策、规划和适应性执行能力,这种自主性要通过动态能力进行体现。从动态交互过程所涉及的范围角度,智能体动态能力体现在内部思考推理、环境交互探索和多智能体协作群体三个层面,通过Reasoning、ReACT、Collaboration三种形式工作流提升其智能水平。


图4-9亚信科技智能体动态工作流设计模式


智能体动态设计能够提升其自主运作、主动性和智能性,从而增强其执行复杂业务工作流程的能力。在面向企业环境中,这种类型的人工智能系统可以显著提高效率,优化运营,并重新定义人类与AI在工作中的关系,Agentic Workflow 可以自动化复杂的工作流程,并可以根据不同的任务需求进行定制,适应各种复杂的工作场景,允许AI智能体自行设计并执行多步骤计划。具体来看:


· 内部推理思考工作流(Reasoning):推理能力是智能体解决复杂问题的核心,智能体面向复杂问题的规划、分析、判断和决策等思考活动都是推理能力表现,复杂规划行动采用多样化的推理思考和规划策略,根据世界模型模拟行为及其对世界状态的影响,本质上智能体内部多步推理、分析预测的思维过程,并未与外部环境产生交互。


· 推理行动交互工作流(ReACT):从过往记忆轨迹中吸收和学习,能从当前目标和过往历史轨迹中进行学习和改进,增强策略制定过程中的适应性和灵活性,能够基于环境反馈进行反思,并根据反馈成果进一步完善行动计划,以更好地实现目标。


· 多智能体协作工作流(Collaboration):围绕业务逻辑实现流程,构建多智能体协作工作流(Multi-Agent Collaboration Workflow),多智能体在共享环境中协作、适应和做出决策规划,提高任务效率、集体决策改进,解决单智能体无法独立解决的现实世界问题,最终实现协同互补的目标。


4.2.3 多智能体应用构建方法


按照前面2.6 章节中所提出的AI Native应用系统重构方法,基于多智能体设计模式将重构当前数字化应用系统的交互与控制方式,构建能够面向开放领域问题的自适应智能系统。同时,康威定律对数字化系统的设计对于人机协同的多智能体设计模式依然参考适用,将指导多智能体之间的通信、交互、合作和协调,以及支撑多智能体协作的底层接口和模块设计。而智能体内部的静态组件功能和动态行为均以康威定律作为前提,最终实现多智能体应用系统的动态部署运行。

综上,我们提出了亚信科技多智能体系统重构四步法,以智能体自主性和适应性能力为核心,通过多智能体协作编排、模块配置、动态设计和运行部署,全面重构系统架构、功能目标和客户体验。


图4-10亚信科技多智能体系统重构四步法


4.2.3.1 多智能体协作机制


包含多智能体之间的角色职责分配、协作工作流程以及多智能体间的通信交互机制三个层面。


· 多智能体角色职责分配


按照业务工作流中的岗位职责和技能资源,对多智能体的角色任务、目标范围和技能资源进行有效分配优化,从而增强面向复杂实时动态变化、任务间依赖关系复杂、专业流程优化场景,其本质是对多智能体进行专业分工。通过分工,具备专业技能和领域知识的单智能体可以从事特定任务、掌握相应资源、工具偏好设置,同时智能体在流程中处理特定任务的技能会持续学习增长;另一方面,将复杂任务分配给多个智能体,可以省去在不同流程之间切换的时间。最终,多智能体之间的高效分工使各智能体专注于自身擅长技能,提高整个系统的效率和产出质量。如在面向电脑执行操作的多智能体系统中,分成了两类智能体:一类智能体负责全局规划思考,进行全局粗粒度的高层次规划、分析和思考,同时接受客户交互请求和反思动作;另外一类智能体负责细粒度执行操作和状态确认,能够针对具体任务进行操作执行和信息反馈,选择相应参数和执行模块。这两类智能体相互配合,能够实现单应用内部或跨应用的无缝导航和操作。


图4-11多智能体角色职责分配


· 多智能体协同工作流程


多智能体在共享环境中协作、适应和做出决策规划,提高任务效率、集体决策改进,解决单智能体无法独立解决的现实世界问题,最终实现协同互补的目标。而协作工作流诠释了不同智能体之间如何配合、状态之间如何转换,任务执行顺序、决策点和分支条件,以及信息流转和反馈监督机制等,最终通过协调、合作或者对抗来实现共同目标。具体包含多智能体之间组织角色分配、通信与信息共享、任务协作机制、技能资源分配和动态协作,最终实现符合业务流程的多智能体工作流。从工作流程的开放角度分析,不同于微服务编排(Microservice  orchestration)中基于业务规则和逻辑的任务调度方式,多智能体协作工作流赋予了面向开放复杂问题的自主性和适应性,为构建自适应和动态系统提供可能性。能够根据当前任务和状态进行动态自我调整。静态组件系统只能完成预定义任务,而多智能体协同系统中依靠智能体自身的自主认知能力,在解决复杂问题中展现灵活性和健壮性。从流程架构维度分析,面向业务目标的工作流具有简单串并链式、复杂树形工作流,以及具备循环反馈能力的图形工作流结构。工作流设计包含了对多智能体运行过程中的流程结构、角色、交互规则和连接方式,以及反馈和改进机制,通过多智能体协作工作流真正实现动态和自适应的群体智能。


图4-12多智能体协同工作流程设计


· 多智能体交互通信机制


多智能体交互通信对于有效地协调和协作解决问题至关重要,多智能体通信语言很早就被设计出来,以支持Agent之间的信息传输和知识共享,但是它们的信息格式相对固定,语义表达能力有限。而LLM-based Agent进入视野之后,基于大语言模型的构建方法开始展现出巨大的潜力。智能体真正具备了认知能力,同时可用自然语言进行描述,智能体之间的自然语言交流变得更加优雅,也更容易为人类所理解,从而大大提高了交互效率。


从交互模态维度,多模态模型(Large Multi-modal Model)能够实现语言和图像视频的统一,极大扩展了智能体的感知和交互能力,进一步提升智能体交互效率;在通信拓扑维度,智能体通信考虑拓扑结构,例如全连接、层级式通信、广播式通信和群组式他通信,或基于邻近性的通信网络;在内容层面需要设计通信内容,包括智能体需要交换的信息类型,如状态信息、意图、策略或其他辅助信息。多智能体通信将协调单个智能体协同解决复杂问题,建立合作机制实现知识共享、信息传递和封装工作流。将信息基于角色和任务传递给相应智能体,并通过标准化输出监督,确保多智能体协作沟通准确性。


4.2.3.2 智能体静态功能


· 大脑机制,目标价值、推理、学习、记忆和世界模型


图4-13智能体大脑机制和世界模型


目标价值包含智能体的角色目标,任务职责、价值偏好以及其他体现智能体个体特征的方面,通常写入提示词当中,在产品重构过程中一般会根据产品业务目标对目标价值系统进行提示词编写和设置。


推理引擎:推理分析能力是在智能体工作流中动态实现,但是需要在静态功能模块中进行配置,智能体规划决策、分析判断和工具执行能力通过模块配置来实现。规划决策模块配置规划策略,包含任务目标拆解、任务层级分配、决策优先级以及人在环路指导等;分析判断模块配置信息检索和推理路径,如是否通过思维链(Chain of Thought)[30]或者思维树(Tree of Thoughts)形式进行思维判断,以及在推理过程中是否进行动态信息检索;工具执行模块负责将智能体的决策转化为具体的结果,并受到角色配置、记忆和规划模块的影响,包含工具执行目标、执行指令生成以及执行信息反馈等功能。


学习反思:属于动态机制能力,在智能体动态行为中会进行详述。


世界模型:世界模型的概念可以解释为机器人代理内在学习的模型[29],用以预测潜在动作的结果,或是利用物理引擎来模拟真实世界的模拟器。世界模型被构建来复制真实世界,并作为虚拟测试环境用于评估机器人代理在现实世界部署前的性能。认知结构是一种高度抽象化的世界模型,认知结构是指人关于现实世界高度抽象化内在的编码系统,是通过感知、加工外界信息以及进行推理活动的参照框架,解决复杂问题和复杂认知。基于认知结构(世界模型)的思考可有效提升智能体的推理分析、判断和决策的准确性,同时也是持续学习的重要载体。针对执行特定业务任务智能体,其内部世界模型应是对该项任务相关的认知结构、知识图谱,或者是数字孪生模拟器。如网络规划智能体,可将网络数字孪生作为该智能体内部世界模型,仅靠LLM自身的推理能力无法对其网元规划设置进行预测判断,而结合网络数字孪生可对其无线网络规划方案进行预测和验证,这将大幅提升其规划准确性。


记忆存储:智能体大脑的知识信息存储模块,一般通过RAG(Retrieval Augmented Generation)[31]构建结构化数据信息索引,提升思维推理精准性。并结合知识图谱构建组合索引和综合索引,极大扩展了对知识图谱等非结构化数据查询索引能力。可将产品介绍信息、数据实时信息、历史信息流、操作记录等内容存入该模块,并可根据实际推理过程进行动态检索。


· 信息交互,多模态信息感知和专业内容感知


多模态信息感知模块是其与环境互动的关键组成部分,它使得智能体能够通过多种感官方式来感知外部世界。具体包含文本、视觉、听觉等,多模态信息感知允许智能体理解和解释场景,这通常涉及到图像或视频内容的分析,如使用视觉编码器来处理图像,并将其与LLM结合以增强视觉感知能力。除了文本、视觉和听觉输入外,智能体可能还需要处理其他类型的输入,如触觉反馈、手势或3D地图等。这些输入可以进一步丰富智能体的感知范围,提高其与环境互动的能力。


· 工具技能资源,产品功能的AI服务原子能力化


围绕产品核心功能的业务能力进行抽象,将产品原有能力重构为AI服务原子能力,暴露给智能体规划决策模块以进行调用编排。产品的原有功能服务可以成为供智能体调用的应用程序和服务功能(Function Call),智能体可以通过编排插件函数功能来完成业务目标,成为可描述、可操作的原子化AI服务能力。


图4-14原有产品功能的AI 服务原子化


4.2.3.3 智能体动态行为:基于双通道理论的动态思考推理[32]


双通道理论最早由心理学家 Jonathan[33]提出并建立基本理论体系,已成为在研究人类认知、决策、思考推理领域的重要参考模型。双通道理论认为人类解决问题的思维过程分为两套系统,分别为系统1(启发直觉式过程,heuristic system)与系统2(思辨分析式过程,analytic system),并依靠短时记忆和长时记忆进行支撑。OpenAI[9]认为GPT-4等大模型可类比于系统1,能够快速生成与问题相关的输出,但缺乏足够逻辑性和可解释性;而通过动态观察、总结、检查、探测、反思、验证、改正等多种思维形式有机组合成Agentic Workflow,构成了慢思考过程。智能体Agentic Workflow可以为链状的思维链(Chain of Thought)或树状的蒙特卡罗树搜索(Monte Carlo Tree Search)[34]形式进行基于树形的思维推理和探索,也可为反馈循环迭代的图状的思维图(Graph of Thoughts)[35]。在智能体动态设计模式当中,通过构建LLM(系统1)+ Agentic Workflow(系统2)快慢思考结合方式提升问题精准性,增强智能体面向动态复杂问题的规划、分析、判断和决策等思考推理能力。


图4-15LLM + Agentic Workflow相结合的智能体快慢思考


· 动态优化执行,基于Agentic Workflow 动态优化执行


ReACT模式[36]:从历史轨迹中学习更新。ReACT通过组织工作流程来分解任务目标,注入与任务相关的知识,提取重要的观察组成部分,并根据反馈完善行动计划。在每步推理过程中进行观察、思考和行动,能够及时纠正和处理异常情况,增强开放环境中任务执行和决策能力。


图4-16基于Agentic Workflow 动态优化执行


工具验证模式[37]:从外部工具反馈中进行验证和调整反思,通过与外部工具的互来验证和逐步修正自身输出,如搜索引擎进行事实核查,或代码解释器进行调试,来对生成内容进行交叉检查和完善初始内容,通过自我验证和自我修正,更准确地识别和纠正错误,缓解幻觉问题。


经验学习模式[38]:从过往经验和专家示范中学习。智能体通过比较专家行为进行学习,快速识别改进方向并生成有用建议,从专家示范中转移知识,提高了决策效率并增强了决策的明智性。智能体能够从过去经验中学习、集成专家示范,并泛化到不同任务中。


· 动态规划决策,面向目标任务的动态规划决策能力


智能体规划决策过程需要面向业务目标,结合客户意图、过往历史推演记录和当前状态观察进行自主规划决策;同时能够融合外部环境、人类反馈或执行反馈,实时调整其规划决策;在面向复杂和专业领域问题,如无线网络规划,还需依靠专业模型增强其规划能力。因而,智能体规划决策模块需要基于过往历史轨迹和当前状态评估,并结合知识库系统、业务生产系统和功能插件系统的实时信息反馈,以便智能体做出最优规划和决策。


图4-17面向目标任务的动态规划决策


· 自省反思和技能学习


自省反思可用于提升智能体决策执行的精准性,通过慢思考回顾历史记录、工具观察等外部反馈,不断迭代优化生成内容和执行能力。技能学习指根据过往历史生成或更新技能,通过对智能体执行历史记录和反馈信息,分析评估当前技能效能并吸取经验,最终实现对已有技能的更新学习。


4.2.3.4 多智能体部署运行:测试部署和运行监控


测试部署:多智能体应用系统需首先在测试环境下利用模拟数据完成相关场景用户旅程的测试后,再与实际生产系统链接部署。并通过容器 Container 镜像包或者WASMWebAssembly)方式部署在Agent管理弹性伸缩平台Kubernetes上。


运行监控:通过部署生产环境,监控整体服务性能和基于体验流程的用户反馈,对围绕影响客户体验和性能的流程、组件和模型进行持续迭代优化。在运行监控过程中,有四个层面优化:面向规划决策执行的Agentic Workflow动态优化,面向业务执行的数据信息RAG集成优化,面向产品功能应用的插件优化以及面向模型能力提升的训练微调优化。


4.3 研发工程管理:AI 增强SDLC全流程研发


4.3.1 AI增强SDLC 概念内涵


软件开发生命周期SDLC(Software Development Life Cycle)在软件开发过程中扮演着核心角色。SDLC涵盖了多个阶段,每个阶段均涉及特定的活动,这些活动确保开发团队能够设计、构建并交付高质量的软件产品。AI增强的软件开发生命周期(Augmented SDLC),利用多AI代理的智能支持,全面提升软件开发的各个环节,显著加快应用开发的效率。


AI增强的SDLC是传统SDLC的一种演变,它通过整合人工智能技术,尤其是多智能体系统,来增强各开发阶段的效能。这种集成使得从需求收集到设计、编码、测试直至部署和维护的每一个步骤都得到智能化的支持和优化。例如,在需求分析阶段,智能体能够通过自然语言处理技术,更准确地解析和理解用户需求;在设计阶段,AI可以协助自动生成软件架构和代码框架;编码阶段,智能体提供代码优化建议并自动修复漏洞;测试阶段,AI自动化执行复杂的测试案例;部署和维护阶段,AI监控应用性能,预测并处理潜在故障。


通过这种AI增强的方式,SDLC不仅效率大幅提升,还能在整个开发周期中更加灵活和响应快速,从而更好地适应快速变化的市场需求和技术进步。这种全面的技术整合,不仅提高了开发效率,还确保了软件产品的质量和稳定性,为企业带来了竞争优势。


图4-18AI增强的软件生命周期(Augmented SDLC


AI Agent - REQ:需求AI Agent专注于需求澄清、分析与文档编制,有效提高需求处理阶段的工作效率。


AI Agent - Design设计AI Agent涵盖UI设计、系统架构、文档编制及设计协作,显著提升设计阶段的工作效率。


AI Agent - Code开发AI Agent负责代码生成、分析、测试与编码协作,优化开发编码过程的效率。


AI Agent - Test测试AI Agent通过自动生成测试用例和辅助执行测试,增强测试阶段的效能。


AI Agent - CICD:CICD AI Agent管理CICD配置、代码冲突解决、UAT测试与交付协作,提升构建和交付的效能。


AI Agent - Ops:运维AI Agent和监控AI Agent分别针对监控报警、故障排查、自动化运维、安全与合规及文档管理,提高运维效率。


随着人工智能技术的持续进步,基于智能体的数字员工能力也相应增强,导致软件开发生命周期(SDLC)中的角色协作及其界限日益模糊。多智能体将整合至SDLC的各个阶段,包括需求分析、设计、编码、测试及运维,从而根本改变了传统研发团队的构架与工作模式。如下图所示,AI赋能软件生命周期成熟度分成五个级别。从智能体初级阶段,即C1辅助自动级别,它们主要发挥辅助作用,显著提高了研发效率。随着到达中级及高级阶段,即从C2部分自动到C4高度自动,SDLC对个体依赖显著减少,尤其在开发、测试和交付等关键环节。


图4-19人工智能赋能软件生命周期成熟度分级


在需求阶段,虽然人工参与将逐渐减少,但不会完全消失。业务需求方的角色变得更为重要,他们的专业知识和决策将直接影响AI如何解析和实现需求。设计阶段将见证人工智能生成内容AIGC(AI Generated Content)技术的显著进步,预计AI将最终完全取代人工进行设计工作。开发、测试和交付阶段的人工参与同样减少,这些环节预计将是最早完全由AI替代的阶段,随着技术的成熟,这些环节之间的界限将逐渐模糊,形成一个高度集成和自动化的连续流程。


在运维阶段,AI将主要承担监控和运维任务,尤其是在处理大量重复且繁重的任务方面,如自动化监控报警和故障诊断,显著提高系统的稳定性和安全性。


总的来看,随着AI技术的融入,SDLC将变得更加高效、灵活和响应迅速。AI的集成不仅提升了工作效率,还改变了传统的工作模式和团队结构,同时增强了过程的创新能力和决策优化。


4.3.2 AI增强SDLC的研发流程


当前的软件开发模式正处于快速演变之中。在传统的开发实践中,依赖于集成开发环境IDE(Integrated Development Environment)提供的复杂编程功能和低代码平台所带来的高效、模块化的拖拽式界面。这一高低码融合的开发模式,使得开发者可以根据项目的具体需求和个人技能水平灵活选择开发路径。


在高代码环境中,开发者能够利用IDE代码编辑、调试和版本控制工具进行精细操作,这是传统软件开发的基础。而低代码平台则通过提供可视化设计工具和预制的应用组件,降低了复杂编程的需求,让非技术背景的用户也能参与到应用的构建中。这种模式不仅提升了开发的灵活性,还缩短了从设计到部署的周期。


随着人工智能的引入,软件开发正向AI原生模式转型。智能体在这一变革中扮演着越来越关键的角色,不仅参与传统的开发任务,还在需求分析、质量保证等方面提供支持。智能体的进步使得软件开发的各个阶段都能够逐步得到增强。通过各具特色的智能体– SDLC提供多重工具能力,从而能够开发出满足业务特征的AI Agent应用。


同时,AI原生的应用开发不断推动交付形态的变化,从线性和静态的部署模式,转向更加迭代和动态的部署模式。这种动态性让软件能够在生产环境中实时调整,响应用户反馈和市场变化,实现持续集成和持续部署(CI/CD)。


图4-20传统SDLC vs AI增强SDLC


AI原生应用开发不仅是技术的集成,更是一个基于“人在回路”(Human in the loop)理念的迭代优化过程。其强调,在AI自动化处理的同时,保留人类决策者在关键步骤中的监督和干预能力,确保最终输出的质量与可靠性。在这一过程中,通过价值流管理,AI Agent不仅实现项目的持续监控和知识积累,还为大模型的发展和周期性更新提供了精确的调整数据。


如下图所示,AI原生应用开发的核心流程包括:基于AI Agent的通用开发流程、基于人类反馈的评估优化流程以及基于模型即服务(MaaS)的大模型开发流程。这三者之间的紧密协作,显著提升了AI Agent的开发能力,以适应不断增长和变化的市场需求。这种集成的开发策略不仅加速了开发过程,也增强了应用的适应性和效率。


图4-21AI增强SDLC应用开发三大核心流程


4.3.3 AI增强SDLC系统架构设计


4.3.3.1 AI 增强SDLC平台建设方案


AI增强的SDLC平台架构设计采用了三层模式,如下图所示,每一层均针对软件开发流程的不同需求和功能进行构建,从而实现整个开发周期的自动化和智能化。整个平台从底层到顶层逐步增加智能化程度,以支持从需求分析到产品运营的全过程。


图4-22AI增强SDLC平台建设方案


底层由模型即服务(MaaS)和AI Agent Manager组成,这一层利用增强的通信认知技术,提供智能体的管理、构建与运行支持,确保了基础设施的高效和稳定。中间层为SDLC工具链,包括Turing BA、Turing Designer、Turing Coder、Turing QA和Turing Operator等专门工具,分别针对需求分析、产品设计、代码编写、产品测试和产品运营等阶段,通过这些专用工具,有效提高了各开发环节的效率和精确性。顶层是价值分析及反馈增强层,包括流程指标分析、语料库和知识库等组件,通过应用深度学习和数据分析技术,这一层贯穿软件开发的整个周期,不断地推动研发流程的改进与优化。AI增强的SDLC平台不仅加速了开发过程,还增强了过程和产品的适应性和竞争力,为软件开发领域带来了革命性的改变。

4.3.3.2 AI 增强SDLC价值流指标体系


价值流指标体系的设计在整体架构设计非常重要。价值流指标体系,可以精确评估AI集成对整个开发周期的影响,确保每个实施步骤都是目标导向的。此外,价值流指标体系不仅增强了架构实施的效果评估能力,还提供了数据支持,用于持续改进和优化开发流程。


在AI增强的SDLC价值流指标体系中,包括三个主要部分:现有效能指标、新增过程指标、以及Agent效能指标,以确保对软件开发过程的全面监控和评估。


· 现有效能指标:聚焦于传统SDLC流程的效率,质量和成本指标,为绩效提供基准和持续监控的基础。


· 新增过程指标:融入AI增强的元素,用以精确量化AI技术在软件开发周期中的具体贡献。这些指标包括:


1.生成耗时:反映AI生成内容所需的时间,以期减少开发周期。


2.生成采纳率和生成入库率:分别衡量生成内容被团队接受的比例和成功整合入库的比例,这反映了AI生成内容的适用性和准确性。


3.通过率:表示生成内容满足质量标准的频率,指示了AI输出的可靠性。


· Agent效能指标:专注于评估AI Agents在自动化开发环境中的表现。


1.自动化率:指AI Agent在任务规划、工具装配、以及风险、行动、RAG构建中的自动执行程度。


2.多Agent交互效率:评价不同Agents之间协同工作的流畅程度。


3.Agent消耗Token数:量化AI Agents执行任务所需的资源数量。


4.Agent健康度:这是一个多维度的指标,综合评估AI Agents的性能稳定性和运行状态,以确保其长期可靠性。


如图所示,这个指标体系不仅帮助团队监控和优化当前性能,还通过新增的指标和效能指标为AI在软件开发中的深度集成提供了度量基准,促进了AI技术的持续改进和效能提升。


图4-23AI增强SDLC价值流指标体系设计


五. 总结与展望


作为业内首部系统性、前瞻性地论述AI Native如何重构软件产品及其未来影响的白皮书,本文全面审视并深入阐述了AI Native在软件产品重构中的关键作用,以及其对未来智能化转型的深远影响。AI Native,作为一种新兴的理念和技术体系,其核心在于将围绕通用人工智能(AGI)的技术体系深度整合到数字化系统的构建中,从而实现更加智能化和自动化的运营管理。


本文从第一性原理出发,详细解析了AI Native的概念内涵,并提出了一套完整的方法体系和实施路径,旨在描绘并推动面向AGI时代的软件产品技术构建方法论。AI Native不仅代表了新质生产力,更强调了AGI在重构数字系统过程中所呈现的未来人机交互的新质生产关系。它不仅仅是一种技术,更代表了一种新的思考和工作方式,注重目标导向的架构设计和数字生产力协作方式。


当前,基于大模型的自主智能体代表了AGI时代的新兴发展方向。大模型的强认知能力赋予了智能体面向开放复杂问题的自主性和适应性、协作性等特征,为构建自适应的动态数字化系统提供了可能。多智能体系统的统筹规划、决策、任务分配和优化能力将推动从单体智能向群体智能的演变,导致人机交互和协作方式的根本转变。


展望未来,AI Native将释放前所未有的潜力,驱使我们迈向一个AGI全面赋能、随处可达、无处不在的全新智能化时代,提供人机协作混合和高效服务的未来。AI Native已成为行业的关注焦点,其特征内涵和实施路径已引发各行业的广泛讨论和思考。我们认为,AI Native不仅标志着技术革新和产品升级,同时也预示着组织文化和战略方向上的重大变革。它将对企业从组织架构、产业生态、业务流程和价值目标等方面产生深远影响,相关理论也将随着AI Native的深入实践而不断深化。然而,AGI技术的发展也带来了一系列挑战,包括AGI决策伦理性、管理人机关系和保护个人隐私等。这些问题需要科技界、政策制定者、企业和公众的共同努力,以制定相应的规范和政策。


总之,本文旨在深入探讨如何采用AI Native方法重构软件产品。这不仅需要克服现有软件的限制,还应引领未来的技术革新。在具体创新实践当中,我们将始终以客户为中心,注重客户价值创造和共同成长,以AGI作为使能技术核心,创新产品设计和客户体验。在与客户共同成长和探索的过程中,我们相信对AI Native潜力的更深层理解将会浮现,并为未来的创新和变革做好准备。

参考资料

[23]生成式AI时代的AI Infra—从DevOps->MLOps->LLMOps[EB/OL]. https://zhuanlan.zhihu.com/p/640725385, 2023.
[24]Wooldridge M, Nicholas R. Intelligent agents: theory and practice[J].The Knowledge Engineering Review 10 (1995): 115 - 152.
[25]Yaodong Y, Jun W. An Overview of Multi-agent Reinforcement Learning from Game Theoretical Perspective[J]. arXiv preprint.arXiv:2011.00583, 2021.
[26]Lei W, Chen M, Xueyang F, et al. A Survey on Large Language Model based Autonomous Agents[J]. arXiv preprint arXiv:2308.11432, 2023.
[27]LLM Powered Autonomous Agent[EB/OL]. Lilian Weng. https://lilianweng.github.io/posts/2023-06-23-agent/  2023
[28]Zhiheng X, Wenxiang C, Xin G, et al.The Rise and Potential Large Language Module Based Agents:A Survey[J]. arXiv preprint arXiv:2309.07864,.2023
[29]David Ha, Jürgen S. World Models[J]. arXiv preprint arXiv:1803.10122, 2018.
[30]Jason W, Xuezhi W, Dale S, et al. Chain-of-Thought Prompting Elicits Reasoning in Large Language Models[J]. arXiv preprint arXiv:2201.11903, 2022.
[31]Yunfan G, Yun X, Xinyu G, et al. Retrieval-Augmented Generation for Large Language Models: A Survey[J]. arXiv preprint arXiv:2312.10997, 2024.
[32]廉霄兴,宋勇,朱军等.基于双通道理论的通信认知增强技术研究[J].电信科学, 2024,40(01):123-135.
[33]Jonathan S B E. In two minds: dual-process accounts of reasoning[J]. Trends in Cognitive Sciences, 2003, 7 (10), 454-459. 
[34]Zhou A, Yan K, Shlapentokh-Rothman M, et al. Language Agent Tree Search Unifies Reasoning Acting And Planning In Language Models[J]. Arxiv Preprint Arxiv: 2310. 04406, 2023. 
[35]Besta M, Blach N, Kubicek A, et al. Graph Of Thoughts:Solving Elaborate Problems With Large Language Models[J].arxiv preprint arXiv:2308.09687, 2023. 
[36]Shunyu Y, Jeffrey Z, Dian Y, et al. React: Synergizing Reasoning And Acting In Language Models[J]. arxiv Preprint arXiv:2210.03629, 2023.
[37]Zhibin G, Zhihong S, Yeyun G, et al. Critic: Large Language Models Can Self Correct With Tool-Interactive Critiquing[J]. arxiv Preprint arXiv:2305.11738, 2024.
[38]Chen L, Wang L, Dong H, et al. Introspective Tips: Large Language Model for In-Context Decision Making[J]. arxiv Preprint        arXiv:2305.11598, 2023.

亚信科技新技术探索
亚信科技的ICT前沿技术观点与行业洞见。展现亚信新技术与产品行业实践成果。
 最新文章