AI新闻早报|AI实时生成游戏模型Oasis遭吐槽、OpenAI宣布推迟GPT5/Sora/DALL-E升级

文摘   2024-11-04 09:00   浙江  

👇关注公众号后设🌟标,不错过第一手AI新鲜观点和动态

早报搜集过往24小时全球AI新闻动态,周一至周六发送,内容的分类和摘要由AI Agent自动完成

封面图由AI生成

2024-11-04 全球AI新闻早报

今日热点

  • Decart推出Oasis AI游戏引擎引发争议:Decart与Etched联合发布了Oasis,首个无需传统游戏引擎的实时AI生成开放世界游戏模型,但因其低画质、高延迟及潜在版权问题受到广泛批评,尽管其开源举措意在推动技术发展。站长之家,Maginative,IT之家

  • OpenAI转向封闭模型引发争议:OpenAI CEO Sam Altman在Reddit AMA活动中解释了公司决定不开放ChatGPT背后AI模型源代码的原因,强调了安全性和潜在风险的考量,此举引起包括特斯拉CEO埃隆·马斯克在内的外界批评,反映出“开源”与“闭源”模式在人工智能领域的讨论与抉择。Business Insider

产品发布

  • GPT-5或延期发布,OpenAI聚焦现有模型优化与新功能推出:OpenAI CEO萨姆·奥特曼在Reddit活动中表示GPT-5可能无法在今年发布,公司将优先优化现有模型及安全性,同时推出ChatGPT Search新功能提升搜索服务竞争力,而DALL-E和Sora等项目的更新计划也因资源限制有所推迟。IT之家

  • Runway AI革新动画制作: Runway公司推出Act-One功能,该技术利用演员的面部表情驱动数字角色,简化动画制作流程,提升动画的真实感和互动性。它有望在娱乐、电商、教育等多个领域发挥重要作用,并促进更多元化的故事叙述。Forbes

  • Meta AI 发布了 Sparsh:首个用于基于视觉的触觉感知的通用编码器: Meta AI 推出新型通用视觉触觉传感器编码器Sparsh,利用自监督学习提升触觉感知性能和泛化能力,减少对标注数据的依赖,有望提升机器人在多个领域的物理交互能力。Marktechpost

  • Perplexity推出Mac原生应用程序: AI应用Perplexity发布Mac原生应用程序,提供桌面端的“答案引擎”,包含Pro Search、文本语音提示等功能,并支持订阅解锁更多功能,但同时也面临版权侵权诉讼。Digital Trends

技术创新

  • 谷歌Agent首次利用LLMs发现SQLite漏洞: 谷歌Project Zero团队与Big Sleep团队合作,利用大型语言模型(LLMs)在SQLite中发现了一个可能影响全球数亿设备的代码漏洞。这项研究展示了LLMs在漏洞研究中的潜力,并有望提升安全防御能力。IT之家
  • Speculative Knowledge Distillation提升AI模型训练效果:谷歌研究团队联合多家机构提出Speculative Knowledge Distillation (SKD) 技术,通过动态交错采样技术结合监督型和在线型知识蒸馏的优势,显著提高学生模型在多种自然语言处理任务中的准确性和适应能力,尤其在低资源场景下表现出色,有效解决了数据分布不匹配及学生模型初期训练质量问题。Marktechpost
  • NVIDIA推出TensorRT-LLM Multi-shot技术提升多GPU环境下的AllReduce速度: NVIDIA发布TensorRT-LLM Multi-shot新技术,利用NVSwitch的组播功能,将多GPU环境中的AllReduce操作速度提升3倍,显著提高通信效率,尤其适用于对延迟敏感的生成式AI应用,提升用户体验。Nvidia blog
  • 字节跳动与香港大学发布并开源全新RLHF框架: 字节跳动豆包大模型团队与香港大学合作,发布开源项目HybridFlow (veRL),这是一个高效的强化学习训练框架,可显著提升训练吞吐量,降低开发维护复杂度,其优越性已在不同规模模型和算法中得到验证,并被EuroSys 2025接收。论文和代码均已公开。IT之家
  • 微软清华改进Transformer:用降噪耳机原理升级注意力: 微软亚洲研究院与清华大学合作提出Differential Transformer(DIFF Transformer),其差分注意力机制可提升长文本处理能力,减少无关信息干扰,并以更少的资源超越传统Transformer模型性能。相关代码已开源。量子位
  • 扩散生成模型取得技术突破: 《Science AI》杂志近日发表论文,介绍了一种名为BELM的新型双向显式线性多步采样器,实现了扩散模型中的精确逆过程,显著提升了图像和音频合成等领域的生成精度。相关研究成果和代码已公开发布。机器之心
  • KVSharer:跨层共享KV缓存提升LLM效率: 上海交通大学等研究机构联合字节跳动提出KVSharer,一种无需额外训练即可应用的机器学习方法,通过跨层共享键值(KV)缓存,显著减少大语言模型(LLM)的GPU内存消耗,同时保持较高性能。实验结果表明,该方法在多种模型上均表现出色,为LLM优化提供了新思路。Marktechpost

商业合作

  • 富士通与AMD合作推动可持续人工智能计算:富士通和AMD宣布达成战略合作伙伴关系,将共同开发节能高效的人工智能和高性能计算平台。该合作将结合富士通的FUJITSU-MONAKA处理器和AMD的Instinct加速器及ROCm软件,计划于2027年前推出创新的计算平台。双方还致力于开放源码软件的开发和生态系统扩展,以帮助企业在利用AI的同时降低数据中心能耗。TechnologyMagazine

应用落地

  • 迪士尼成立新AI部门探索技术潜力: 华特迪士尼公司成立“技术赋能办公室”,探索人工智能和混合现实等新兴技术在消费者体验、创意项目及业务发展中的应用,并管理潜在风险。该团队由迪士尼电影制片厂首席技术官杰米·沃里斯领导。IT之家

  • AI在股市的应用有限但有辅助作用: 腾讯金融科技团队认为,AI难以准确预测个股未来趋势,但在数据收集、异动监测和辅助理性投资决策方面表现出色,可高效生成分析报告并减少情绪化交易带来的损失。站长之家

行业分析

  • OpenAI 的研究揭示 AI 模型准确性问题: OpenAI 发布的 “SimpleQA” 基准测试显示,包括其最新 o1-preview 模型在内的顶级人工智能模型,在测试中准确率普遍偏低。o1-preview 模型仅获得 42.7% 的准确率,且这些模型常对错误答案持有过高信心。这一现象在医疗和警务等领域的应用中引发关注,提示用户需对 AI 输出保持审慎态度。Futurism

👇关注公众号后设🌟标,不错过第一手AI新鲜观点和动态


瓜哥AI新知
紧追AI业界一手观点、访谈、动态,点滴构建AI底层认知
 最新文章