SmartFlowAI
点击上方蓝字关注我们
全文约 1500 字,预计阅读时间 8 分钟
新闻资讯
腾讯开源混元大模型
腾讯近日开源了其最新的大型 MoE 模型——Hunyuan-Large。该模型拥有3890亿总参数和520亿激活参数,是目前业界已开源的基于 Transformer 的最大 MoE 模型。Hunyuan-Large 在公开基准测试、多轮对话、高质量文本生成、数学逻辑和代码创作等多个任务上表现出色,并且在长上下文处理能力上支持高达 256K 的文本序列。与 Llama3-405B 等同类模型相比,Hunyuan-Large 在多个基准测试中表现更优,特别是在 MMLU 数据集上,其性能提升幅度达到 2.6%,显示出在大规模任务上的强大理解和推理能力。
https://llm.hunyuan.tencent.com/
Google推出MDAgents,提升医疗决策的AI协作能力
Google推出了一个新的多智能体框架,名为MDAgents(Medical Decision-making Agents),旨在提升医疗决策中的AI协作能力。MDAgents通过自动为多个大型语言模型(LLMs)分配协作结构,模拟从个体临床医生到协作临床医生团队的分层诊断程序。该框架能够根据任务的复杂性动态调整LLMs的角色和协作方式,从而更有效地处理复杂的医疗决策问题。
https://arxiv.org/abs/2404.15155
Oasis游戏:首款完全由AI生成的实时互动游戏
Oasis是一款由初创公司Etched和Decart AI联合推出的全球首款实时生成的AI游戏。这款游戏利用扩散模型实时预测生成每一帧画面,无需预先设计或规则,玩家在游戏中体验到的每一帧都是独一无二的。游戏以每秒20帧的速度持续渲染,并且所有代码和模型权重均已开源。
https://oasis.decart.ai/overview
Meta 推出新款 MobileLLM,125M 模型表现超乎预期
Meta 最近推出了一款名为 MobileLLM 的全新小型语言模型系列,其中包括 125M、350M、600M 和 1B 参数的模型。这些模型专为移动设备和其他资源受限环境设计,旨在优化大语言模型(LLM)在移动设备上的部署。MobileLLM-125M 在性能上表现突出,特别是在聊天和 API 调用方面,甚至优于一些更大规模的模型。Meta 的研究团队通过创新方法,如跨 Transformer 层的权重共享,不仅节省了参数,还减少了推理延迟。
https://arxiv.org/abs/2402.14905
QTIP 量化方法问世,实现 405B 模型的高效处理
QTIP(Quantization with Trellises and Incoherence Processing)是一种新的量化方法,旨在实现大型语言模型的高效处理。该方法使用网格编码量化(TCQ)和状态解码器,将码本大小与比特率和有效维度分开,从而在超高维量化中实现高效处理。QTIP通过引入计算免查找网格代码,专为硬件高效的“位移”网格结构而设计,显著提高了量化质量和推理效率。
https://arxiv.org/abs/2406.11235
小工具
OuteTTS-0.1-350M
OuteTTS-0.1-350M 是一款新型的文本转语音合成工具,具有零样本语音克隆功能,这意味着无需复杂的适配器或外部组件即可生成高质量的语音。该工具基于 LLaMa 架构,使用 WavTokenizer 直接生成音频 token,简化了 TTS 方法,仅需几秒钟的参考音频即可复制新的声音。这一发布标志着文本转语音技术向前迈出了关键一步
https://www.outeai.com/blog/OuteTTS-0.1-350M
往期 · 推荐
🌠 番外:我们期待与读者共同探讨如何在 AI 的辅助下,更好地发挥人类的潜力,以及如何培养和维持那些 AI 难以取代的核心技能。通过深入分析和实践,我们可以更清晰地认识到 AI 的辅助作用,并在 AI 时代下找到人类的独特价值和发展空间。“机智流”公众号后台聊天框回复“cc”,加入机智流大模型交流群!
一起“点赞”三连👇