最新开源:腾讯上线迄今最大视频生成开源大模型!全球首个去中心化训练的10B级模型已正式开源!

文摘   2024-12-05 18:32   广东  
NO.1

腾讯 HunyuanVideo 视频生成大模型,单次生成5秒视频

12月3日,腾讯混元大模型宣布混元视频生成大模型 HunYuanVideo 正式上线并开源。


腾讯 HunyuanVideo

  • 官网:https://aivideo.hunyuan.tencent.com

  • 代码:https://github.com/Tencent/HunyuanVideo

  • 模型:https://huggingface.co/tencent/HunyuanVideo

  • 技术报告:https://github.com/Tencent/HunyuanVideo/blob/main/assets/hunyuanvideo.pdf

HunyuanVideo 是目前开源模型中参数最多、性能最强的文生视频大模型。它包含 130 亿参数,可以生成较强物理准确性以及一致性镜头的视频。

HunyuanVideo 不仅能实现文生视频模型的基础能力,比如生成画面符合提示词、流畅、不易变形等,而且具备一些独特的能力。

尤其是,HunYuanVieo 能够在保持画面主角不变的情况下,自动切换镜头,这是目前业界大部分文生视频模型不具备的能力。

为了达到这些独特的能力,腾讯混元进行了专项能力的微调,包括画质、高动态、艺术镜头、手写、转场和连续动作六个方面。

HunYuanVideo 生成的单个视频最长时长为 5 秒,在标准模式下生成一个视频所需时间为 120 秒。

HunYuanVideo 首个版本主要有 4 大特色:

  1. 画质偏写实;

  2. 进行大幅度动作时仍具有流畅性;

  3. 能够理解复杂文本以及进行多主体交互;

  4. 支持原生转场,主体保持直出的同时多镜头切换。

HunYuanVideo 背后的 4 项关键技术升级:

  1. 模型采用了一个超大规模的数据处理系统

  2. 模型引入了多模态大语言模型(Decoder-only MLLM)作为文本编码器,提升了复杂文本的理解能力,同时支持多语言理解。

  3. 模型架构使用了130亿参数的全注意力机制(DIT)和双模态ScalingLaw,能够在视频生成中有效利用算力和数据资源,增强时空建模能力,并优化视频生成过程中的动态表现。

  4. 模型采用了自研的3D VAE架构,以提升图像和视频重建的能力,特别在小人脸和大幅运动场景下表现更加流畅。


为了评估 HunyuanVideo 的能力,研究团队选择了四个闭源视频生成模型作为对比。

视频根据三个标准进行评估:文本对齐(Text Alignment)、运动质量(Motion Quality)和视觉质量(Visual Quality)

60 多名专业评估人员进行了评估。

值得注意的是,HunYuanVideo的整体表现最佳,尤其是在运动质量方面。

注意,该评估基于 HunYuanVideo 的高质量版本。这与目前发布的快速版不同。

除了基础的视频生成能力外,腾讯还拓展了 HunYuanVideo 的应用功能,推出了视频配音与配乐功能,能够为生成的视频提供音效与背景音乐,进一步提升视频的完整性和表现。

此外,腾讯还推出了驱动2D照片数字人的技术,支持通过语音、姿态和表情等多种驱动方式控制照片数字人的动态表现,增强了生成内容的自然度、一致性和可控性。

NO.2

INTELLECT-1:全球首个去中心化训练的10B级模型

近日,美国初创公司 Prime Intellect 推出了首个去中心化的 100 亿参数模型训练项目 INTELLECT-1,在此前的原始研究基础上将参数量提升了 25 倍。

什么是去中心化训练
随着模型的参数量,单一设备的算力已无法满足训练需求,因此需要将模型拆分为多个部分,并分配到不同的计算节点(通常是多个 GPU)上进行训练,这就是我们称之为分布式训练(Distributed Training)的方法。其原理就是将训练负担拆分至多个计算节点,利用并行计算缩短训练时间。

图:分布式训练的数据并行

Prime Intellect 的这场去中心化训练的规模其实相当大,涉及到 3 个大洲的 5 个国家,同时运行了 112 台 H100 GPU。


INTELLECT-1

  • 技术报告:https://github.com/PrimeIntellect-ai/prime/blob/main/INTELLECT_1_Technical_Report.pdf

  • Hugging Face 页面:https://huggingface.co/PrimeIntellect/INTELLECT-1-Instruct

  • GitHub 地址:https://github.com/PrimeIntellect-ai/prime

  • 体验链接:chat.primeintellect.ai

INTELLECT-1 是一个以去中心化、由社区协作训练的10B参数语言模型,专注于从头开始训练,使用1万亿个英语文本和代码token。该模型在全球分布的 14 个节点上进行训练,旨在实现高性能和容错的动态扩展。

在模型评估中,INTELLECT-1 在多个基准测试中表现优异,其性能与许多集中式训练的开源模型相当甚至有所超越。例如,在 MMLU 5-shot、ARC-Challenge 25-shot 等基准测试中,INTELLECT-1 取得的分数高于除 LLaMA2-13B 之外的其他同类模型。

图:在不同基准测试上的结果

作为全球首个 10B 参数的去中心化训练模型INTELLECT-1 让我们看到,利用分布式计算资源来训练前沿的 AI 模型的可能性。

NO.3

Cognify:一个提升生成式AI工作流的多功能优化工具

在生成式人工智能(AI)迅速发展的背景下,创建高质量且低成本的生成式AI应用仍然面临诸多挑战。

UCSD 的张怡颖教授及其 GenseeAI 团队近日推出了一款名为 Cognify 的新工具,这一工具旨在自动提升AI工作流的生成质量,并显著降低生成成本,受到业界的广泛瞩目。

  • 开源地址:https://github.com/GenseeAI/cognify

Cognify 一个专为生成式AI工作流设计的多功能优化工具。它通过自动化的方式提升生成质量并降低执行成本,支持 LangChain、DSPy 及注释 Python 编写的工作流。

Cognify 基于层次化的工作流级别优化,能够将生成质量提高至多 48%,并将执行成本降低至 9 倍。用户可以通过简单的CLI接口使用 Cognify,支持现有 Python 工作流的移植和新工作流的开发。

Cognify 最大亮点在于其创新的分层工作流优化方法Cognify 通过实验各种 Cog 组合,并通过最终生成的质量评估这些组合的效果,从而优化整个工作流。

Cognify 同时推出的还有 CogHub,它是一个集合开源AI工作流优化方法的资源平台,类似于 HuggingFace 聚合开源模型。


参考:
https://baijiahao.baidu.com/s?id=1817255406807602962&wfr=spider&for=pc
https://www.primeintellect.ai/blog/intellect-1

HsuDan
拥抱AI技术,分享人工智能、机器学习、数据分析等多个领域的优质资讯、学习资源、实践案例、开源项目及开发工具。
 最新文章