AI新闻早报|OpenAI将于2024年1月推出名为“Operator”的自主AI代理

文摘   2024-11-15 07:38   浙江  

👇关注公众号后设🌟标,掌握第一手AI新动态

早报搜集过往24小时全球AI新闻动态,周一至周六发送,内容的分类和摘要由AI Agent自动完成

封面图由AI生成

2024-11-15 全球AI新闻早报

今日热点

  • OpenAI将于2024年1月推出名为“Operator”的自主AI代理:  多家媒体报道OpenAI即将发布名为“Operator”的AI代理系统,该系统能够自主执行用户指令,例如预订航班、编写代码等复杂任务。 这标志着OpenAI在人工智能领域迈向“自主AI”的新阶段,将与Anthropic、Google等公司在自主AI代理领域的竞争进一步白热化。 “Operator”将以研究预览和开发者工具的形式发布,其自主决策能力带来便利的同时也引发了关于隐私和伦理的讨论,OpenAI需要谨慎应对相关风险,以确保安全和负责任地使用。 业界普遍认为,自主AI代理将是未来人工智能发展的重要方向,并有望在2025年进入主流市场。IT之家,站长之家,Verge,Readwrite,Marktechpost,Silicon Angle,Toms Guide,Dataconomy
  • Keras之父François Chollet离开谷歌: 谷歌宣布深度学习框架Keras的创始人François Chollet离职。Chollet在谷歌工作近九年,期间带领Keras发展成为拥有超过200万用户的深度学习框架,被广泛应用于自动驾驶、推荐系统等领域。尽管离开谷歌,Chollet将继续参与Keras的未来发展,并支持其他机器学习框架如JAX、TensorFlow和PyTorch。谷歌表示将继续支持Keras 3的开发,并承诺为机器学习开发者提供更多框架选择。Chollet的未来计划尚不明确,但其在人工智能领域的贡献不容忽视,他的离职也引发了业界对Keras未来发展方向的关注。虎嗅,36氪

产品发布

  • OpenAI推出任务自动化智能体“Operator”: OpenAI将于2024年1月推出名为“Operator”的AI智能体,旨在通过简单的指令自动化用户任务,例如编程、订餐和行程规划等。这被认为是OpenAI应对大模型Scaling Law瓶颈,并进军Agent领域的重要尝试,但其发布进度落后于Anthropic、谷歌等竞争对手。Operator将首先以API接口形式提供给开发者预览。量子位,36氪

  • 苹果iOS 18.2更新将Siri整合ChatGPT,并推出视觉智能功能: 苹果即将在12月9日发布iOS 18.2系统更新,Siri将集成ChatGPT,提供更强大的问答功能。同时,iPhone 16系列(国行版除外)将新增Visual Intelligence视觉智能功能,可识别图像并提供详细信息。然而,此次更新也意味着Mac设备将不再支持Wi-Fi通话功能。站长之家

  • 百度推出AI创作工具“自由画布”,整合文库和网盘资源: 百度将旗下百度文库和百度网盘深度融合,推出全新AI创作工具“自由画布”。该工具支持多种格式文件导入、AI辅助编辑创作、一键分享及二次编辑等功能,旨在打破不同平台和格式间的编辑壁垒,为用户提供一站式全模态内容创作体验。量子位,极客公园

  • 微软发布针对特定行业的AI模型: 微软推出了一系列针对特定行业(如农业)的AI模型,这些模型已在微软云平台上整合,并与行业工具及合作伙伴生态系统相结合。这些基于行业专属数据微调的模型旨在提升运营效率和推动创新,加速企业采用生成式AI。Analytics India Tech

  • 谷歌推出AI安全工具打击诈骗和恶意应用: 谷歌发布两款基于人工智能的安全工具:“通话防骗”和“Google Play Protect实时威胁检测”。“通话防骗”通过实时分析通话内容识别诈骗电话并发出警告;“Google Play Protect实时威胁检测”则实时监控已安装应用的行为,检测恶意应用和跟踪软件。这两款工具旨在增强Android系统的安全性,保护用户免受诈骗和恶意软件的侵害。Analytics Insight

  • 吴恩达DeepLearning.AI推出AI安全短期课程: 吴恩达的DeepLearning.AI与Guardrails AI合作,推出免费短期课程“通过护栏实现安全可靠的AI”,旨在帮助学习者识别并缓解大型语言模型(LLM)应用中的安全问题,例如幻觉和信息泄露。Analytics India Tech

突发事件

  • OpenAI因版权诉讼面临巨量文件披露请求:OpenAI因其大型语言模型训练数据版权问题被作者协会提起集体诉讼。原告要求OpenAI披露包括联合创始人Ilya Sutskever在内8名员工的超过88万份文件,总数据量达数百GB。OpenAI律师认为这将造成巨大的资源负担,并指出已有文件搜索中存在大量重复数据,目前正试图与原告协商减少文件披露数量。该诉讼也暴露了OpenAI可能删除了用于训练GPT-3模型的大量书籍数据这一事实。Business Insider

技术创新

  • 李飞飞吴佳俊团队发布具身智能决策能力评估基准EAI,o1-preview模型表现最佳: 斯坦福大学李飞飞和吴佳俊团队开发了一个名为EAI的评估框架,用于系统地评测大模型在具身智能决策方面的能力。EAI利用线性时态逻辑(LTL)统一目标表示,并细粒度地评估目标解释、子目标分解、动作规划和转换建模四个模块。该团队对18个主流大模型进行测试,结果显示o1-preview模型在模拟环境中综合表现最佳。这项研究成果已被NeurIPS接收,代码已开源,为具身智能研究提供了重要基准。量子位,36氪
  • 清华大学在CoRL 2024机器人顶会上斩获最佳论文奖: 清华大学高阳团队凭借其关于模仿学习中数据规模对机器人操控性能影响的研究论文《Data Scaling Laws in Imitation Learning for Robotic Manipulation》在CoRL 2024的X-Embodiment Workshop上获得最佳论文奖。此次会议还公布了其他获奖论文,例如基于Transformer的室内导航代理PoliFormer以及提升自动驾驶车辆极限条件下性能的研究成果。这些研究展现了机器学习在机器人技术和自动驾驶领域的最新进展,标志着人工智能在机器人操控和自主导航等方面取得了显著突破。雷峰网
  • 谷歌2024博士奖学金授予数十位华人学者: 谷歌公布了2024年度博士奖学金获得者名单,其中数十位年轻华人学者脱颖而出,他们的研究领域涵盖人工智能的多个前沿方向,例如计算机视觉、自然语言处理、AI for Science等。获奖者来自麻省理工学院、卡内基梅隆大学、新加坡国立大学等知名高校,并在各自领域取得了显著成就。36氪
  • 华为AI智能体Agent Kv1.0在Kaggle竞赛中夺冠: 华为研究团队开发的人工智能系统Agent K v1.0在Kaggle数据科学竞赛平台上表现出色,模拟成绩相当于获得6枚金牌,其在表格数据、计算机视觉和自然语言处理等多种任务中展现了强大的能力,并能自主设置并提交竞赛方案。36氪
  • 微软研究院发现具身AI的全新缩放定律: 微软研究院的研究人员提出了一套适用于具身人工智能的缩放法则,该法则通过改变模型参数和数据集大小来评估AI代理在行为克隆和世界建模任务中的学习效率。研究发现,不同任务对模型大小和数据量的偏好不同。该研究为优化具身AI的资源利用和提升其性能提供了新的指导。Marktechpost

投资融资

  • Tessl获1.25亿美元融资,估值达7.5亿美元,欲打造AI原生软件开发平台:人工智能驱动的软件开发平台初创公司Tessl近期完成1.25亿美元融资,其中包括Index Ventures领投的1亿美元A轮融资,估值达到7.5亿美元。该公司由Akamai前CTO Guy Podjarny创立,致力于利用AI技术革新软件开发流程,让开发者通过自然语言描述软件功能,由AI自动生成、调试、测试和维护代码。Tessl计划于2025年正式推出平台,目前已在内部和外部进行测试,目标是建立一个“AI原生”的开发者社区。Dataconomy,Fortune,Silicon Angle

  • Databricks获10亿美元融资,估值达550亿美元: 数据分析巨头Databricks正与Thrive Capital洽谈10亿美元融资,这将使其估值飙升至约550亿美元。此轮融资旨在加速其基于人工智能的数据解决方案的开发和企业功能的扩张,进一步巩固其在AI平台市场中的领先地位。这笔投资也将成为Thrive Capital迄今为止最大的一笔投资,并得益于Databricks近期与AWS的合作以及其他战略联盟,为其未来的IPO铺平道路。Analytics India Tech

  • CoreWeave完成6.5亿美元融资,估值达230亿美元: 人工智能云服务提供商CoreWeave宣布完成6.5亿美元融资,估值提升至230亿美元。此轮融资由Jane Street、Magnetar等机构领投,资金将用于扩展其AI优化的全球数据中心网络,包括在年底前建成28个设施,并在欧洲新建10个数据中心。CoreWeave近期已率先推出基于Nvidia H200处理器的云服务,并计划于2025年进行IPO。Silicon Angle

  • 法律AI公司EvenUp获1.35亿美元D轮融资,估值达10亿美元: 法律AI公司EvenUp近日完成1.35亿美元D轮融资,成为法律AI领域最大一笔融资,使其估值达到10亿美元。其核心产品Piai™是一款AI模型,在人身伤害案件处理中,尤其在识别医疗费用和治疗信息等方面,表现超越GPT-4。此次融资将用于拓展更多法律领域,如医疗事故和消费者保护,并开发更多功能,以提高案件处理效率和索赔价值,最终目标是创造更公平的索赔环境。36氪

  • 中国AI独角兽“月之暗面”爆发融资纠纷,面临发展危机: 中国AI独角兽公司“月之暗面”因创始人杨植麟卷入与投资机构间的仲裁风波而引发关注。该公司在短时间内获得巨额融资,估值迅速飙升,但其海外扩张受阻,并伴随高层变动。此次仲裁风波源于杨植麟未经前公司投资方同意创立新项目,暴露了AI投资领域的高风险和复杂性。虽然“月之暗面”技术实力备受瞩目,但其未来发展仍面临诸多不确定性,包括团队稳定性、市场竞争以及投资人信心等挑战。36氪

应用落地

  • AI模型FastGlioma可在10秒内精准识别脑瘤残留: 美国研究人员开发出一种名为FastGlioma的AI模型,通过分析显微图像,可在10秒内以高达92%的准确率识别脑瘤手术后残留的癌性肿瘤组织。这项技术突破性地解决了传统方法在区分肿瘤残留和健康脑组织方面存在的局限性,有望显著提高脑瘤手术的成功率和患者的生存率与生活质量,并可能应用于其他癌症类型的诊断。IT之家,澎湃
  • 苹果推出个性化表情符号生成功能Genmoji: 苹果公司在iOS 18.2系统中推出了名为Genmoji的AI功能,允许用户在iPhone 15 Pro及以上机型上创建个性化表情符号。用户可以通过文字提示创建各种主题的表情符号,例如将自己或朋友的形象转化为表情符号,或表达感恩、放松等情绪。Genmoji为用户提供了更丰富、更具个性化的沟通方式。Toms Guide
  • 英国电信公司O2推出AI“祖母”机器人对抗电话诈骗: 英国O2公司开发了一款名为Daisy的AI语音机器人,模拟老年人声音与电话诈骗者进行冗长对话,以此耗费诈骗者时间,保护潜在受害者免受欺诈。Daisy会编造虚假信息拖延时间,令诈骗者陷入漫长无果的通话。Gizmodo

新锐言论

  • 马斯克AI系统Grok“反水”,指控其为主要虚假信息传播者: 埃隆·马斯克旗下人工智能系统Grok,在被问及谁在推特(现在是X)上散布最多虚假信息时,出人意料地直接点名马斯克本人。Grok认为马斯克庞大的粉丝群和高影响力使其传播的虚假信息更容易被放大,尤其是在选举等关键时刻。尽管Grok承认“虚假信息”定义的主观性及其他因素的影响,但这一事件仍引发广泛关注,尤其是在Grok自身也曾因散布虚假信息而被批评的背景下,更显讽刺。Fortune

  • OpenAI CEO回应AI发展放缓质疑:技术瓶颈不存在:  OpenAI首席执行官Sam Altman近日在社交媒体上回应了外界关于人工智能模型进步放缓的担忧,他认为不存在技术瓶颈,并暗示“扩展定律”依然有效。这一说法与部分认为AI发展面临瓶颈,传统方法提升效率边际效益递减的观点相悖。微软首席技术官认为规模扩张的边际效益并未减少。为突破瓶颈,各AI实验室正探索新的方法,例如使用合成数据和改进模型推理能力。Business Insider

行业分析

  • AI大模型发展遇瓶颈,数据中心建设或放缓: AI大模型升级速度因高质量数据匮乏和高昂成本而放缓,OpenAI等公司面临数据资源枯竭的困境,甚至尝试使用AI生成数据也可能导致模型同质化。与此同时,马斯克的xAI公司宣布将建设拥有10万H100芯片的巨型数据中心,引发行业焦虑,竞争对手担忧其快速扩张可能带来的冲击,尽管xAI的AI工具目前实力仍逊于OpenAI。这表明AI大模型发展面临挑战,数据中心建设狂潮或将减速。华尔街见闻

  • Meta巨额投资AI,押注商业化成功: Meta公司计划未来两年投入巨资用于AI基础设施建设,资本支出将大幅增长。尽管面临美国经济环境不确定性带来的挑战,但其AI产品,如Threads应用和Llama模型,已展现出显著的用户参与度和商业化潜力,主要体现在广告收入的增长上。Meta预计未来几年收入将持续增长,但增速会逐渐放缓。该公司正通过持续的AI投资,力求在AI领域取得长期的商业成功。36氪

  • 谷歌Gemini改进缓慢,新团队试图突破瓶颈: 谷歌承认其Gemini聊天机器人性能提升速度远低于预期,即使投入大量资源也未能显著改善。类似问题也困扰着OpenAI。为解决这一“缩放定律”失效带来的挑战,谷歌已成立新团队,尝试通过探索新的推理模型技术和手动调优等方法来提升Gemini性能,但目前效果并不理想,引发了业界对AI技术发展瓶颈和“AI泡沫”的担忧。36氪

  • AI换脸技术导致虚假信息泛滥,引发社会关注与技术应对: 近期,“雷军AI配音”恶搞视频在网络平台大量传播,引发雷军本人不满。该事件凸显了生成式AI技术带来的虚假信息问题日益严重,其不仅造成个人困扰,更可能引发社会恐慌甚至网络诈骗。各大平台虽采取措施打击虚假信息,但鉴别成本高昂,需要监管部门介入。为应对这一挑战,多家公司正研发基于大模型的解决方案,以增强风险识别能力,“虚假信息安全”也成为重要的技术研究方向,未来有望带来商业价值。财经网

人事变动

  • OpenAI 核心AI安全研究员离职,对AGI使命表示担忧:OpenAI 治理研究员 Richard Ngo 宣布离职。Ngo 曾是AI安全领域的权威人士,参与撰写重要论文并开设相关课程。他表示对 OpenAI 近期的发展方向感到担忧,认为确保AGI安全并造福人类的使命比预期更具挑战性,并对预防AGI威胁人类生存的复杂性表示担忧。他的离职引发业界关注,凸显了AGI安全与伦理挑战的严峻性以及 OpenAI 内部可能存在的变革。IT之家,36氪

  • xAI安全顾问Dan Hendrycks兼任Scale AI顾问,年薪仅12美元:埃隆·马斯克旗下xAI的安全顾问Dan Hendrycks,同时担任估值140亿美元的Scale AI的顾问,年薪却只有12美元。Hendrycks积极参与AI安全倡导,曾参与起草加州SB-1047法案(后被否决),并因投资AI审计工具公司而面临利益冲突指控。这一举动加强了Scale AI与AI行业及部分政府关系的联系,但也引发了关于潜在利益冲突的讨论。Fortune

政策法规

  • 美国国土安全部发布人工智能关键基础设施安全指南:美国国土安全部发布了关于在关键基础设施(如电力网络、供水系统和航空旅行)中使用人工智能的指导方针,旨在为私营公司提供最佳实践,包括监控可疑活动、加强隐私保护、识别潜在偏见以及提高透明度。该指南由一个包含来自OpenAI、Nvidia、Alphabet等公司高管的委员会制定,虽然未设置具体的合规指标,但呼吁立法机构补充监管,以确保人工智能技术在关键基础设施中的安全可靠应用。该指南鼓励各方承担责任,并旨在为当前和未来的基础设施安全提供框架。Apnews,NYTimes

👇关注公众号后设🌟标,掌握第一手AI新动态


瓜哥AI新知
紧追AI业界一手观点、访谈、动态,点滴构建AI底层认知
 最新文章