🏆 基座模型
①项目:Oryx
★Oryx是一个多模态大语言模型(MLLM),旨在解决现有模型在处理不同分辨率和时长的视觉数据时的局限性。Oryx通过引入两个核心创新来实现对任意分辨率和时长的视觉输入的动态处理:一是预训练的OryxViT模型,能够以任意分辨率将图像编码为适合LLM的视觉表示;二是动态压缩模块,支持根据需求在1到16倍之间压缩视觉标记。
☆一键收藏:
https://sota.jiqizhixin.com/project/oryx
🤖 Agent开发
①项目:AgentTorch
★AgentTorch 是一个开源平台,旨在解决大规模智能体模拟中的计算效率和行为表达挑战。它优化了 GPU 的使用,能够高效地模拟整个城市或国家的行为。AgentTorch 的设计原则包括可扩展性、可微分性、组合性和泛化性。AgentTorch关注如何有效捕捉智能体在复杂环境动态(如疫情)中的适应性行为,使研究者能够模拟数百万个智能体,分析其在不同社会和经济情境下的决策,为政策制定提供依据。
☆一键收藏:
https://sota.jiqizhixin.com/project/agenttorch
②项目:MAgICoRe
★MAgICoRe是一个多智能体由粗到细的推理框架,旨在通过多步骤的细化过程来解决复杂的推理问题。该项目核心思想是通过生成多个推理链,并对困难实例进行细化,从而提高推理的准确性和效率。MAgICoRe引入了一个难度感知机制,将问题分为“简单”和“困难”两类,再通过三个智能体的协作,模型能够更精确地定位和修正错误,提高解答的质量。
☆一键收藏:
https://sota.jiqizhixin.com/project/magicore
🛠️必备工具
①项目:OneGen
★OneGen 是一个用于大型语言模型(LLMs)的单次生成和检索框架。其核心思想是通过在自回归生成过程中分配检索任务,将生成和检索集成到同一上下文中,从而使LLM能够在单次前向传递中执行这两项任务。该方法不仅降低了部署成本,还显著减少了推理成本。
☆一键收藏:
https://sota.jiqizhixin.com/project/onegen
②项目:VPTQ
★VPTQ是一种新颖的后训练量化方法,利用向量量化在极低比特宽度(<2-bit)上实现高精度。VPTQ可以在不重新训练的情况下将70B甚至405B模型压缩到1-2比特,并保持高精度。该方法显著减少了内存需求,优化了存储成本,并在推理过程中降低了内存带宽需求。
☆一键收藏:
https://sota.jiqizhixin.com/project/vptq
👋网页端访问:https://sota.jiqizhixin.com