【AI】香港科技大学与中国科技技术大学联合推出开放世界游戏生成模型

文摘   2024-11-09 15:02   河北  
点击上方  关注我们吧


近日,香港科技大学、中国科学技术大学等机构联合推出了GameGen-X 模型。

这一模型能够模拟游戏引擎的多种功能,支持创建丰富的虚拟角色、动态环境以及复杂的游戏事件,从而实现高度仿真且可控的开放世界游戏体验。

开放世界游戏视频的生成与交互新探索

GameGen-X 的支持下,用户能够生成高质量的游戏视频内容,并以创新的方式与虚拟场景互动。

该模型不仅可以生成创新角色、复杂动作和多样化事件,还能够根据用户的输入来调整游戏场景,实现一种前所未有的“游戏策划”体验,让游戏爱好者在虚拟世界中轻松构建自己的故事情节。

创新性的数据集 OGameData

GameGen-X 的训练依赖于一个庞大的游戏视频数据集 OGameData,这是全球首个专为开放世界游戏生成和控制设计的数据集。OGameData 包含超过 150 款游戏的 100 万个以上视频片段,研究人员还结合 GPT-4o 为每段视频提供了详细的文本描述,提升了模型对多样化内容的生成能力。

该数据集的规模和多样性使 GameGen-X 能够适应不同类型的游戏场景,并提供与传统游戏引擎生成方式相比更加灵活、细腻的画面和场景控制。这种数据集的构建为模型的多模态理解奠定了坚实基础,使其能够基于丰富的游戏情景生成长时间、高质量的视频内容。

双阶段训练:预训练和指令微调

GameGen-X 的训练流程分为两个阶段,即基础模型预训练和指令微调。

在基础模型预训练阶段,GameGen-X 通过文本到视频生成和视频续接任务进行训练,从而掌握了生成开放领域高质量长序列视频的能力。这个过程使得模型能够模拟多样化的游戏内容,包括角色动作和复杂的互动场景。

在指令微调阶段,研究团队引入了 InstructNet 模块,用以处理用户的控制信号并执行相关操作。InstructNet 负责处理用户输入的控制信号,实现对虚拟角色和场景的精细控制,并确保生成视频的多样性和质量不受影响。

该模块通过与基础模型的结合,使 GameGen-X 能够根据用户输入实时调整潜在表示,将交互性引入到生成的视频内容中。

游戏视频生成与交互控制的突破

GameGen-X 的设计结合了游戏视频生成与交互控制的需求,在开源与商用模型中具有显著优势。相比传统生成模型,GameGen-X 在生成视频内容时能够实现高水平的角色控制和场景控制,其生成的内容更贴近真实游戏场景,使用户能够在虚拟世界中更自由地互动和探索。

模型不仅能够生成多样化的环境,还可以根据用户的指令实时调整,满足了游戏策划和个性化生成的双重需求。

未来,游戏设计师和玩家将能够利用GameGen-X 等模型,在虚拟世界中构建出更为丰富和动态的内容。

对此,各位读者有什么想说的?

欢迎留言,一起交流你的观点与看法!


合作与交流

您的支持 · 我们的动力

诚邀投稿:


欢迎各位粉丝、朋友们提供稿件(前沿科技进展、科技产品动态、经典文献解读、技术原理科普、行业市场分析、科研生活感悟、社会民生观察等)。联系微信号:133 9674 1340,并请注明详细联系信息,对入选推送稿件者,我们会及时联系您,以微信红包形式给予报酬


对前沿科技感兴趣的朋友,可以点击关注公众号,订阅感兴趣的话题专栏!

也可添加下述小编微信!小编邀请您一起加入“前沿科技观察”群聊!

让我们每天下午4点,一起探索全球最前沿的科技资讯!开启你的科技之旅,与志同道合的伙伴一同品味科技发展带来的时代红利,创新型的未来!



编辑|前沿科技观察

供稿|科创产业观察

审核|前沿科技观察






前沿科技观察
聚焦科学前沿、着眼科技热点!理工博士,用最接地气的文字,传递最“好玩”的科技讯息!
 最新文章