AI“入世”的阿里云方案

文摘   其他   2024-09-20 14:33   北京  

在阿里云等厂商的努力下,底层算力层的AI重构正在不断演进,开发生态同样也在不断完善,从局部的产品逻辑重塑,到行业层面的全面重塑,其速度只会越来越快。AI通过端到端的部署逐渐介入和改变物理世界,已经不再是伪命题。

‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍




以Chatgpt发布为锚点,其后的22个月,没人能否认,这是人类历史上AI发展速度最快的历史时期。

 
在刚刚过去的夏天,阿里云全面支撑巴黎奥运会实现了历史性突破,云计算首次超越卫星,成为奥运主要转播方式。所有的比赛转播画面,通过阿里云全球化覆盖的云计算基础设施,走向200多个国家和地区。这意味着阿里云在主要的国家和市场,已经完成了本地化建设,并拥有了相应的支持团队。

 
如果用发展的眼光看待,这些基础设施级别的投入,为AI时代乃至AGI的最终降临,提供了足够繁茂的生态和足够肥沃的土壤。横向扩展的AI开源社区,则让底层的模型和应用层的产品实现“自我造血”,获得更快的迭代速度。

 
时至今日,阿里云的AI布局也早已走出了“云”的范畴,到具体的产品和技术应用之上。陈列在云栖小镇的大模型和人形机器人,也让曾经藏在后端的AI,开始变得脚踏实地,触手可及。



01


改变的,不变的


2024年9月19日,2024云栖大会在杭州云栖小镇开幕。

 
相较于一年前,两次云栖大会的侧重点各有不同。2023年的云栖大会,将重点放在了算力、人工智能+、产业创新三个方向。可以看出,在“AI元年”,阿里云的重点在底层生态和后端基础设施的构建。

 
而到了今年,展馆主题则变成了“人工智能+、计算、前沿应用”。正如阿里巴巴集团CEO、阿里云智能集团董事长兼CEO吴泳铭在云栖大会所说,大模型技术在一年的时间里快速迭代,曾经停留在文本生成的大模型,已经具备了包括文本、语音、视觉在内的多模态能力,并开始能解决复杂问题。

 
也因此,在大会布置的“人工智能+馆”,集合了包括通义、百川、Kimi、智谱等各类大模型,无论是图片、音频、还是3D生成等前沿交互,都能在场馆内一站式体验到。

 
此外,曾经昂贵的模型推理成本,也在一年的时间里呈指数级下降,已经远远超过了摩尔定律。以阿里云的经验来看,通义千问API在阿里云百炼上的调用价格下降了97%,百万Tokens调用花费最低已经降到了5毛钱。

 
正因如此,在模型能力没有明显差距的前提下,谁的云计算资产分布越多,门类更全面,谁的推理成本也会相对更为低廉,而在AGI尚未到来的时间里,这将会是一场没有尽头的长征。“计算馆”则从产业链的角度,回顾了AI时代云计算的产业布局,这也是历次云栖大会的一脉相承。

 
AI对世界的改造,并不局限于互联网。如今很多业内人士仍然在用移动互联网时代的范式在思考,寄希望于AI行业也像之前那般,出现一个杀手级的超级APP。

 
吴泳铭则认为,AI最大的想象力绝对不是在手机屏幕上,AI最大的想象力是在通过渗透数字世界、接管数字世界,并改变物理世界,这才是AI最大的想象力。

 
何为“AI渗透物理世界”?一个简单的定义是“AI智能终端”,更直观的例子,则是AI机器人。

 
在本次云栖大会的“前沿应用馆”,一个随处可见的场景是,曾经还是程序形态的机器人,如今已经“得道化形”,变成了真正的“人”。

 
以北京银河通用机器人的“盖博特”机器人为例,它具备顶尖的抓取技术,用户只需在一台PAD上点击所需的饮料,机器人根据指令,就能准确地去货架上拿到,送到面前。根据工作人员的介绍,以后机器人店员将能跟真人一样,及时处理订单,并实现送货上门。

 
而同样的智能机器人企业,共有14家参与了云栖大会。虽然这只是AI机器人产业的冰山一角,但在某种程度上,已经开始宣告,AI已经通过这种方式,开始了对现实世界的影响和改造。


02


从AGI到终端部署



截至目前大模型的能力还远远谈不上“实现AGI”。但就方向而言,已经走在了正确的道路上。
 
以OpenAI新近发布的O1模型为例,它以更慢的推理速度,换来了解决更复杂问题的能力。在阶跃星辰创始人姜大昕看来,它第一次证明了大语言模型可以像人脑一般“慢思考”。

 
相比此前GPT4的即时输入,即时生成,虽然它能把一个复杂的问题拆解成很多步,然后分步去解决,但仍然难逃直线性思维的窠臼——而以O1模型为代表的技术路径,则是结合了模仿学习和强化学习,已经初步具备了人脑思维范式的相关特点。

 
而在清华大学人工智能研究院副院长、生数科技首席科学家朱军眼中,如果按业界对于AGI的“L1-L5”分级体系,ChatGPT为代表的聊天机器人,停留在L1级别;O1模型为代表的复杂推理模型,则能定义为L2,但在某些特定任务下,已经实现了较为高阶的智能水平。换言之,这也代表着整个AI业界,水平上限的再次提升。

 
但上述各种模型,即便已经做到了“上云”,在没有进入能够物理互动的终端之前,很难说“影响现实世界”。

 
基于同样的标准,端到端的自动驾驶,或许是大模型在自动驾驶第一次大规模的商业化落地。

 
在小鹏汽车董事长何小鹏看来,AI想要真正“入世”,数字世界的维度和物理世界的维度一定不同,后者一定会慢于前者。也因此,只有当软件、硬件、用户、政策法规发生变革,且这四个变革放在一起,才能称得上物理世界的变革。

 
而自动驾驶在过去两年的历史机遇在于,真人司机的精力即便再大,水平再高,也无法完全胜任世界上所有的驾驶场景,而端到端的大模型加持的自动驾驶,则能很好地弥补这一点,把自动驾驶的下限和上限,都进行明显的拓宽。最终的理想情况则是,一个一般水平的汽车用户,可以在自动驾驶的加持之下,在每个城市的驾驶水平都能如同一个老司机——这就是端到端的大模型,在用户一侧最明显的感知。


03


用“GPU”,把整个行业重做一遍



无论是更高、更快、更强的大模型和智能体,还是正在大规模落地的端到端自动驾驶,模型层和应用层的日新月异超乎了大多数人的想象。
 
同时也不得不承认,这一轮人工智能浪潮,比以往任何一波都更快,更密集:其一是有更实际的技术路径支撑,其二是资本增密的速度远超以往任何一波AI浪潮。它们依赖的共同技术基础和硬件基础,在于AI的爆发,带来的计算体系的变革。

 
在吴泳铭看来,过去几十年,CPU主导的计算体系,正在加速向GPU主导的AI计算体系转移。未来几乎所有的软硬件都会具备推理能力,它们的计算内核将变成GPU AI算力为主、CPU传统计算为辅的计算模式。

 
而从市场反馈来看,超过50%的新需求由AI驱动产生,因此云计算设备的迭代呼之欲出。

 
相较传统IT时代,AI驱动的阿里云全系产品,也迎来了家族升级。据阿里云CTO周靖人介绍,“云厂商拥有全栈技术储备,并通过基础设施的全面升级,让AI训练、推理、部署和应用整个生命周期变得更高效。”


譬如最新上线的磐久AI服务器,它不仅支持单机16卡、显存1.5T,还能提供AI算法预测GPU故障,准确率达92%;

 
阿里云ACS也首次推出了GPU容器算力,通过拓扑感知调度,实现计算亲和度和性能的提升;为AI设计的高性能网络架构HPN7.0,可稳定连接超过10万个GPU ,模型端到端训练性能提升10%以上。

 
随着AI基础设施全面革新,其中一个技术红利是模型的使用成本也越来越低。以通义千问三款主力模型为例,其价格降幅普遍在80%以上,最高达85%,这意味着接入通义千问的企业,调用模型的成本降低,速度已经远超摩尔定律。

 
以距离AI技术最近,大模型结合场景最丰富的游戏行业为例,巨人网络已经在游戏创作、内部提效等方面全面拥抱AI——在云栖大会现场最新亮相的“巨人摹境”,也是首个支持团队协作的AI绘画生产平台,构建起协作式标准AI美术工业化管线,一键式工作流实现复杂任务简化,适用于团队大规模美术向内容生产。

 
而作为国内第一款“AI+游戏”,网易旗下的《逆水寒》手游将游戏服上云,将AI引擎的推理部署也放在云上;最新上线的《永劫无间》手游,则在全面拥抱阿里云原生服务的同时,应用了在阿里云上完成高效推理的“AI队友”。这也是网易27年历史上,单日新增玩家最高的游戏。

 
以过往的历史经验来看,在AI发展历史上的三次浪潮中,无数行业人士对于新的技术革命,都持有短期高估和长期低估的惯性思维。这是新技术一定存在的低渗透率使然。

 
但站在发展的角度来看,长期停留在“玩具级”的AI产品,如今在硬件算力和软件革新的双重加持下,早已脱胎换骨,已经初步具备了介入现实世界的能力,而这只是从“生成式AI元年”开启,不到两年内发生的事情。

 
毫无疑问,在阿里云等厂商的努力下,底层算力层的AI重构正在不断演进,开发生态同样也在不断完善,从局部的产品逻辑重塑,到行业层面的全面重塑,其速度只会越来越快。AI通过端到端的部署逐渐介入和改变物理世界,已经不再是伪命题。




真相无法揭露,只能接近



作者 : 乔隐 监制 : 大曼 排版 : 洋洋

出品|陆玖商业评论·北京办公室

/ 往期回顾 /





版权声明:本公众号所有内容文字、图片和音视频资料,版权均属北京三六九零科技有限公司,任何媒体、网站或个人未经本公众号授权不得转载、链接、转贴或以其他方式复制发布/发表。侵者必究。本文图片均来自陆玖商业评论,请勿侵权。



陆玖商业评论
真相无法揭露,只能接近。
 最新文章