12月3日,腾讯混元大模型宣布混元视频生成大模型 HunYuanVideo 正式上线并开源。
官网:https://aivideo.hunyuan.tencent.com
代码:https://github.com/Tencent/HunyuanVideo
模型:https://huggingface.co/tencent/HunyuanVideo
技术报告:https://github.com/Tencent/HunyuanVideo/blob/main/assets/hunyuanvideo.pdf
HunyuanVideo 是目前开源模型中参数最多、性能最强的文生视频大模型。它包含 130 亿参数,可以生成较强物理准确性以及一致性镜头的视频。
HunyuanVideo 不仅能实现文生视频模型的基础能力,比如生成画面符合提示词、流畅、不易变形等,而且具备一些独特的能力。
尤其是,HunYuanVieo 能够在保持画面主角不变的情况下,自动切换镜头,这是目前业界大部分文生视频模型不具备的能力。
为了达到这些独特的能力,腾讯混元进行了专项能力的微调,包括画质、高动态、艺术镜头、手写、转场和连续动作六个方面。
HunYuanVideo 生成的单个视频最长时长为 5 秒,在标准模式下生成一个视频所需时间为 120 秒。
HunYuanVideo 首个版本主要有 4 大特色:
画质偏写实;
进行大幅度动作时仍具有流畅性;
能够理解复杂文本以及进行多主体交互;
支持原生转场,主体保持直出的同时多镜头切换。
HunYuanVideo 背后的 4 项关键技术升级:
模型采用了一个超大规模的数据处理系统。
模型引入了多模态大语言模型(Decoder-only MLLM)作为文本编码器,提升了复杂文本的理解能力,同时支持多语言理解。
模型架构使用了130亿参数的全注意力机制(DIT)和双模态ScalingLaw,能够在视频生成中有效利用算力和数据资源,增强时空建模能力,并优化视频生成过程中的动态表现。
模型采用了自研的3D VAE架构,以提升图像和视频重建的能力,特别在小人脸和大幅运动场景下表现更加流畅。
为了评估 HunyuanVideo 的能力,研究团队选择了四个闭源视频生成模型作为对比。
视频根据三个标准进行评估:文本对齐(Text Alignment)、运动质量(Motion Quality)和视觉质量(Visual Quality)。
60 多名专业评估人员进行了评估。
值得注意的是,HunYuanVideo的整体表现最佳,尤其是在运动质量方面。
除了基础的视频生成能力外,腾讯还拓展了 HunYuanVideo 的应用功能,推出了视频配音与配乐功能,能够为生成的视频提供音效与背景音乐,进一步提升视频的完整性和表现。
此外,腾讯还推出了驱动2D照片数字人的技术,支持通过语音、姿态和表情等多种驱动方式控制照片数字人的动态表现,增强了生成内容的自然度、一致性和可控性。
近日,美国初创公司 Prime Intellect 推出了首个去中心化的 100 亿参数模型训练项目 INTELLECT-1,在此前的原始研究基础上将参数量提升了 25 倍。
什么是去中心化训练?
随着模型的参数量,单一设备的算力已无法满足训练需求,因此需要将模型拆分为多个部分,并分配到不同的计算节点(通常是多个 GPU)上进行训练,这就是我们称之为分布式训练(Distributed Training)的方法。其原理就是将训练负担拆分至多个计算节点,利用并行计算缩短训练时间。
图:分布式训练的数据并行
Prime Intellect 的这场去中心化训练的规模其实相当大,涉及到 3 个大洲的 5 个国家,同时运行了 112 台 H100 GPU。
技术报告:https://github.com/PrimeIntellect-ai/prime/blob/main/INTELLECT_1_Technical_Report.pdf
Hugging Face 页面:https://huggingface.co/PrimeIntellect/INTELLECT-1-Instruct
GitHub 地址:https://github.com/PrimeIntellect-ai/prime
体验链接:chat.primeintellect.ai
INTELLECT-1 是一个以去中心化、由社区协作训练的10B参数语言模型,专注于从头开始训练,使用1万亿个英语文本和代码token。该模型在全球分布的 14 个节点上进行训练,旨在实现高性能和容错的动态扩展。
在模型评估中,INTELLECT-1 在多个基准测试中表现优异,其性能与许多集中式训练的开源模型相当甚至有所超越。例如,在 MMLU 5-shot、ARC-Challenge 25-shot 等基准测试中,INTELLECT-1 取得的分数高于除 LLaMA2-13B 之外的其他同类模型。
图:在不同基准测试上的结果
作为全球首个 10B 参数的去中心化训练模型,INTELLECT-1 让我们看到,利用分布式计算资源来训练前沿的 AI 模型的可能性。
在生成式人工智能(AI)迅速发展的背景下,创建高质量且低成本的生成式AI应用仍然面临诸多挑战。
UCSD 的张怡颖教授及其 GenseeAI 团队近日推出了一款名为 Cognify 的新工具,这一工具旨在自动提升AI工作流的生成质量,并显著降低生成成本,受到业界的广泛瞩目。
开源地址:https://github.com/GenseeAI/cognify
Cognify 是一个专为生成式AI工作流设计的多功能优化工具。它通过自动化的方式提升生成质量并降低执行成本,支持 LangChain、DSPy 及注释 Python 编写的工作流。
Cognify 基于层次化的工作流级别优化,能够将生成质量提高至多 48%,并将执行成本降低至 9 倍。用户可以通过简单的CLI接口使用 Cognify,支持现有 Python 工作流的移植和新工作流的开发。
与 Cognify 同时推出的还有 CogHub,它是一个集合开源AI工作流优化方法的资源平台,类似于 HuggingFace 聚合开源模型。
参考:
https://baijiahao.baidu.com/s?id=1817255406807602962&wfr=spider&for=pc
https://www.primeintellect.ai/blog/intellect-1