AI的未来不应受到限制,而应该是“Liquid”。
作者|苏霍伊
北京时间10月23日,美国初创公司Liquid AI在麻省理工学院(MIT)的Kresge礼堂举办了产品发布会。揭晓了利用Liquid基础模型的首批企业级产品。
Liquid AI基于第一原理,打造出了一种非Transformer架构的动态引擎——液态神经网络(Liquid Neural Network,LNN)。通过将神经科学、物理学和动力系统的原理融入其模型设计中,Liquid AI在可解释性和效率方面实现突破。LFM模型采用了与数学和信号处理领域相似的数学原理,因此它们特别适合处理多种类型的数据,包括文本、音频、图像和视频。
诚然,OpenAI的ChatGPT和谷歌的Gemini可能正在引领人工智能革命,但这家小型初创公司也在用实力向世人证明,创新仍然具有颠覆性力量。
在昨日在宣传片中,Liquid AI的CEO Ramin Hasani更是直言“Liquid引擎才是真正的创新”。“它能让每家公司都拥有自己专属的AI解决方案,我们创建Liquid AI,是为了让人们能以更智能的方式接触GenAI。”他说道。
「甲子光年」发现,LFM的特点主要有:
提升决策质量:LFM拥有先进的知识处理能力,特别适合解决需要深度知识背景的任务,能在这些场景下展现出色的表现。
效率与可持续性:这些模型因为内存使用低和推理速度快而极具效率,训练和部署都能节省大量资源。此外,它们能在本地设备上高效运行,大大减少了对云计算的依赖,有助于降低成本和环境影响。
增强可解释性:与传统基于Transformer的模型相比,LFM的设计原理更加清晰,提供了更好的透明度,用户可以更容易地理解和监控模型的决策过程。
Liquid AI产品发布会现场,来源:「甲子光年」拍摄
Ramin Hasani表示:“Liquid AI让我们以全新的视角面对AI系统。我们将从底层改变AI。”
三周前,Liquid AI发布了首批基于液态神经网络的多模态大模型——Liquid Foundation Models(LFM),包括1.3B、3B和40B三个版本。这些生成式AI模型在各种AI任务中展现出优越性能,它们不仅具有较低的内存需求和更高的推理效率,同时在多个规模上都达到了行业领先的性能水平。
在发布会上,他们又推出了两款新产品——音频LFM和视觉LFM。
音频LFM拥有近40亿参数,能直接在设备上运行。它支持无缝音频生成,能进行语音到语音转换和语音到文本转换。视觉LFM能处理文本与图像,还能在图像上添加上下文,可以在边缘和本地使用这些新基础模块解锁许多应用。
它们可用于检测金融交易欺诈、控制自动驾驶汽车和分析基因数据等。三星、Shopify等公司正在测试这项技术。
Ramin Hasani特别提出Liquid“不仅仅是一种AI架构”。“我们确实在AI架构上取得了创新,但架构只是基础模型公司的一部分。我们正在构建一个完整的模型开发生态系统,不仅在架构上创新,还在学习算法、训练方式、评估方法等方面进行突破。”他说道。
创始科学家Jimmy Smith介绍了Liquid AI是如何“拔高”模型质量的。“掌握知识能力、多步推理,并关注推理、训练的效率。在特定部署场景下,我们不仅仅关注模型架构,还考虑数据、训练算法和后期训练的相互作用。”Jimmy Smith说。
高级科学家兼后期训练负责人Maxime Labonne介绍了Liquid AI“最重要的后期训练”。“通过创建高质量的示例,让模型学习如何分步回答复杂问题,我们还需要评估模型的聊天功能以及与用户的交互方式。”Maxime Labonne表示:“以及最令人兴奋的模型合并。在模型合并过程中,我们将同一模型的不同版本的参数合并,创建出统一的高质量模型。”
电子商务公司Shopify的首席技术官、前微软高管、Liquid AI顾问Mikhail Parakhin(左三)表示,赢得人工智能竞赛最终将需要数百亿美元。“甚至一千亿美元。对于Liquid AI而言,目前实现这一目标是一项艰巨的任务。”Mikhail Parakhin说,“但他们拥有一项非凡的技术。”
State of Generative AI的讨论,来源:「甲子光年」拍摄
Ramin Hasani与Maura Healey,图片:「甲子光年」拍摄
显微镜下的秀丽隐杆线虫,来源:维基百科
END.