《人工智能大语言模型技术发展研究报告(2024)》发布!(附下载)

文摘   2024-07-18 08:16   河南  

近日,中国软件测评中心(工业和信息化部软件与集成电路促进中心)发布《人工智能大语言模型技术发展研究报告(2024)》。报告总结梳理了大语言模型技术能力进展和应用情况,并对未来发展方向予以展望,以期为产业界提供参考。

以下为报告主要内容梳理 ↓ ↓



人工智能作为引领新一轮科技产业革命的战略性技术和新质生产力重要驱动力,正在引发经济、社会、文化等领域的变革和重塑,2023 年以来,以 ChatGPT、GPT-4 为代表的大模型技术的出台,因其强大的内容生成及多轮对话能力,引发全球新一轮人工智能创新热潮,随着大模型技术演进、产品迭代日新月异,成为科技产业发展强劲动能。


第一章  大语言模型发展基石

大模型发展对算力需求激增,高端AI芯片是关键。大模型需千卡以上AI芯片构成的服务器集群支撑,高端芯片供不应求。GPT-4模型参数规模达1.9万亿,训练所需GPU数量较GPT-3增加近24倍。预计到2024年,我国企业5%—8%的大模型参数将从千亿级跃升至万亿级,算力需求增速达320%。

定制化算力解决方案将成为趋势。随着摩尔定律放缓,一体化解决方案已难满足特定计算需求。为实现芯片最佳性能和效率,需针对算法模型和工作负载进行针对性优化。

AI芯片自研和算力优化成为重要手段。拥有算力资源的企业竞争力更强,可加速模型训练、提升市场响应速度。大厂加强AI芯片研发,优化大语言模型架构。如谷歌自研Tensor G3芯片,微软推出Maia100和Cobalt100两款自研芯片。亚马逊发布Trainium2 AI芯片,性能为前代四倍,能源效率翻倍,集群可快速训练大语言模型。亚马逊投资Anthropic后,要求其使用自研AI芯片。OpenAI也自研AI芯片并评估收购目标。我国AI芯片技术发展迅速,如百度昆仑芯已在多个场景实现应用,并为大语言模型提供训练策略。

我国AI数据需求增长,但数据市场发展初级,供给生态不健全,供需对接机制未建立。高质量数据集构建成本高,行业数据集缺乏。大模型预训练数据多源于公开网络,但中文数据集数量少、质量参差不齐。

面对数据源多样、质量不均、成本高昂等问题,需周密计划,选择合适数据源,运用先进技术确保数据准确一致。注重数据时效性和动态性,及时更新维护,提炼有价值信息支持决策和模型训练。专业数据团队和科学管理制度确保数据安全隐私。

利用人工智能技术构建高质量数据集,挑战且前景广阔。通过AI提高数据准确性、效率和可解释性,为AI应用提供坚实数据基础。AI自动标注工具降低成本提高效率,清洗和预处理技术确保数据准确可靠。数据增强技术扩充数据集多样性和泛化能力。AI还支持数据集动态更新和维护,保障质量和性能。大模型快速构建高质量指令微调数据集,提升模型性能。

大模型研发企业如百度、讯飞等通过有监督精调、偏好学习和强化学习等多阶段对齐技术,校准模型行为,使其更反映人类意图。有监督精调利用标注数据集训练模型,偏好学习捕捉人类偏好,强化学习优化模型行为策略。这些方法提高了模型性能,增强了人机交互的可用性和可靠性。


第二章  大语言模型发展现状

大模型如文心大模型在芯片、框架、模型和应用领域全栈布局,显著提升效率。在基础能力和安全能力上全面领先,引领技术创新和生态完善。模型训练推理效率和性能明显提升,如百度文心大模型等。2024年4月,百度AI开发者大会发布,飞桨与文心大模型优化技术,提升模型训练效率和性能。推理部署方面,采用创新技术提升模型精度和推理性能。阿里巴巴的通义千问大模型支持多模态能力,通过突破技术提升模型性能和推理效率,支持超长序列和强大的文本生成与理解能力。

百度文心大模型在中文生成与推理方面表现优异,具备多场景应用能力。Kimi作为AI助手,擅长中文和英文多语言对话,支持长文本和多轮对话,具备强大的搜索和理解能力。

百度文心大模型已发展出智能体模式等创新应用,多模态应用蓬勃发展,同时在逻辑推理、数学计算和代码生成上表现显著。科大讯飞星火大模型在语音识别等领域展现强大能力,采用多层次注意力机制处理长文本和多模态数据。

各大语言模型在海量数据处理能力上不断增强,百度文心大模型通过数据清洗和预处理技术提升数据质量和可用性。富数据多样性提升模型泛化能力,文心大模型从大规模无标注数据中学习,具备跨领域迁移能力。阿里巴巴通义千问大模型在数据处理上表现突出,基于最新技术,提供多语言对话和翻译服务,能生成文本、视频和图像,跨领域应用能力强。智谱清言大模型基于ChatGLM开发,具备文本处理和多语言支持能力,最新版本GLM-4在数据处理和智能体定制上表现突出。

在大模型应用落地中,需关注效果、效率和成本,选择最适合的模型。百度等大模型厂商通过多模型协同训练,有效知识继承,生产高质量小模型,并建设了种子模型矩阵和配套工具链,实现高效、低成本模型生产。应用侧,百度利用反馈学习端到端多模型推理技术,智能路由模型,平衡效果与效率。


第三章  大语言模型的核心能力进阶

大语言模型通过深度学习和海量数据训练,达到对人类语言深层次理解能力,能从复杂语境中抽取信息,实现跨领域知识融合。深层语境分析提升语义理解和信息抽取能力,应用场景广泛。知识融合提升语言理解生成准确度,整合不同来源知识,满足用户跨领域需求。尽管有进展,但仍需探索新理论和方法。深度语境分析与知识融合强化大语言模型。在智能问答、情感分析、机器翻译和个性化推荐等领域展现其应用潜力。通过深度语境理解用户意图,结合知识库提供更全面答案。随着技术进步,这些应用将取得显著成果,提升大模型能力,接近人类语言水平。

精确内容生成与增强搜索融合推动大语言模型进阶。这涉及数字内容生成、信息检索等领域,为大模型提供稳固基础。该融合提高内容精确性、搜索智能化,未来需深入研究内容精确性、语义理解和知识图谱。同时,需平衡多样性与精确性,保障用户隐私安全。

大语言模型在内容生成方面能力显著提高,如深度学习和GAN技术使内容真实且个性化。增强搜索技术则通过理解用户语义和智能推荐提升搜索精确性。大模型在内容生成和搜索融合中展现核心能力。进阶体现在:一是基于用户需求的内容生成,大模型能精准生成符合用户需求的内容,满足个性化需求。二是智能推荐机制,通过用户输入的关键字和语义信息,推荐高度相关内容,提高搜索效率。三是知识图谱的应用,增强内容生成和搜索的精确性。此外,符号逻辑与神经网络的融合提升了大模型在逻辑数据构建、知识建模及语义知识融合方面的能力。同时,大模型的上下文记忆能力显著增强,为角色扮演等场景提供连贯交互体验,提升模型性能。提供更连贯、一致和个性化的交互体验。在角色扮演中,记忆能力关键。模型需记住用户先前陈述,以做出恰当回应。上下文记忆能力的增强源于模型架构改进和训练数据增加。大型模型拥有更多参数和复杂结构,能捕捉和存储更多上下文信息。通过大量数据训练,模型学会在不同场景下应用信息,提高性能。

大模型在内容安全上设计精细化和智能化,既提升交互性也保障信息安全和合规性,实现“应答尽答”。不再直接拒绝可能引发风险的问题,而是先深入分析评估,确保合规前提下提供详尽回答。这依赖于模型在数据处理和分析能力上的提升,利用自然语言处理技术和深度学习算法。


第四章  大语言模型的创新应用形态——智能体(AI Agent)

大语言模型为AI Agent提供语言理解能力,使其能解释指令、自主或半自主运作。这类Agent利用多种工具完成任务,展示复杂推理技术,如思维链和思维树推理,并能为特定目的生成定制文本。目前,AI Agent可自主或半自主运作,整合多种AI系统提供多功能。

典型AI Agent案例:智能体研发通常基于基础模型,通过增强训练获得思考模型,类似人类思考过程。RoboAgent是通用机器人智能体,通过少量训练实现12种复杂技能,在100种未知场景中泛化应用,展现高度适应性和灵活性。RoboAgent采用MT-ACT架构处理多模态多任务数据集,解决多样性挑战,为机器人学习范式带来重大进步。Coze的AI Agent支持智能化、自动化代理创建,通过API调用加速生成式AI应用部署,自主构建、优化提示,提供精准对话体验,展现企业级AI应用潜力。Auto-GPT结合GPT-4和GPT-3.5技术,通过API创建完整项目,自主完成任务并动态优化,展示AI在自主项目完成方面的潜力。Amazon Bedrock Agents为开发人员提供创建智能体能力,加速AI应用程序发布,简化任务编排,优化企业用户体验。百度文心智能体平台基于文心大模型4.0,提供零代码、低代码和全代码开发模式,简化AI智能体开发,支持专业和教育领域应用,加强模型思考能力。百度开发了Baidu Comate,通过上下文增强和无缝集成技术,助力程序员高效编写和优化代码。Baidu Comate的采用率和代码生成比例显著上升,验证了其效率和质量。工程师能通过它快速理解代码库结构、功能,甚至自动生成代码,体现了智能编程助手的重要性。
腾讯的元器(Metasphere)是一个智能交互平台,融合了AI Agent技术,带来智慧体验。元器实现了多设备、多场景的智能联动,提供个性化建议和解决方案,提高生活质量和工作效率。腾讯通过元器展现了AI Agent的潜力,预示智能生活的未来。
NVIDIA和加州理工学院共同推出的Voyager,是GPT-4引导学习的Minecraft智能体。它通过编写、改进和传输外部技能库中的代码来提升能力,为AI训练提供新范式。Voyager展示了GPT-4在AI训练中的潜力,完成了《我的世界》中多项任务,为AI在游戏和模拟环境中的应用带来新可能。
MetaGPT是基于GPT-4的多智能体协作平台,通过角色定义和任务分解,让多个智能体协同工作,处理复杂任务。架构师、项目经理、工程师各具专长与目标。MetaGPT训练涉及代码审查和预编译执行,提升代码质量。其采用可执行反馈机制,迭代编程和高效通信,提高代码生成质量。MetaGPT支持多语言和多编程语言,性能优异。在基准测试中,MetaGPT单次通过率高达81.7%至85.9%,表现出色。MetaGPT模拟真实软件开发团队,提升多智能体协作,推动AI在软件开发中的应用。

第五章  大语言模型的核心能力进阶

大模型将注重多模态数据融合,包括自然数据和传感器信息,如无人车传感器数据、生物信息等。多模态数据融合能提升模型理解和创造能力,带来实际应用突破。例如,自动驾驶汽车可通过多模态数据融合提升安全性和可靠性。艺术创作领域也可通过大模型生成创意作品。但多模态数据处理面临格式、特征和语义挑战,需深入研究和优化。进行持续优化以实现高效处理与精准解析。大模型将提升自适应和迁移学习能力,满足多应用场景需求,推动人工智能技术的广泛应用。自适应能力使模型能自动调整以适应新任务和环境,迁移学习能力则减少学习成本,提高效率。结合二者,大模型将实现高效灵活学习。自然语言处理领域的大模型将具备跨语言、跨领域的自适应和迁移学习能力。同时,采用可解释性算法提高模型透明度,增加可靠性,如特征重要性分析、决策树可视化等,便于理解模型决策。提高透明度对实际应用具有重要意义,如医疗诊断领域,可解释模型更易获信任。其他技术手段如模型蒸馏也能增加模型透明度。垂直大模型研发需深度定制于行业,着重高质数据和稳定供给。选择知识丰富、数据优质的行业,确保数据质量和大模型基础。清晰规则和明确需求有助于模型设计和开发,实现可预测和可控。垂直模型能精确处理特定复杂性,提升性能和准确性,满足行业需求。如医疗、金融和智能客服领域,大模型可提升效率、优化流程。

大模型发展中隐私保护与数据安全至关重要。加密技术是数据安全的核心,采用AES、RSA等技术保护数据传输和存储。匿名化处理是保护隐私的重要措施,通过去标识化和伪匿名化去除敏感信息,满足隐私保护法规要求。完善的访问控制是数据安全关键,采用RBAC和MFA技术限制访问权限。定期审核防止泄露,降低风险。合规与审计确保数据保护有效,遵循法规,发现并修正安全漏洞。大模型需注重能效比与绿色计算,优化模型架构和算法,采用高效环保设备。建立绿色计算标准和评估体系,推动绿色发展和可持续发展。

来源 | AI大模型前沿


 声明  本公众号所转载文章内容系作者个人观点,不代表本公众号观点及立场。转载此文是出于传递更多信息之目的,若来源标注有误或存在分歧请与本公众号联系,我们将及时处理,谢谢。



 点击“阅读原文”查看完整《报告》PDF版

河南省教育信息化协会
开展河南省教育信息化政策宣传、理论研究、合作交流、成果推广、咨询服务、业务培训。
 最新文章