网传:商汤、裁员
科技
2024-10-23 20:05
北京
2024 年 10 月 23 日,网传商汤大裁员。2018 年至 2023 年,商汤营收分别为 18.53 亿、30.27 亿、34.46 亿、47 亿、38.09 亿、34.06 亿。六年共 202.41 亿。年度亏损分别为 34.33 亿、49.68 亿、121.58 亿、171.4 亿、60.93 亿、64.95 亿。6 年共 502.87 亿元。去除优先股公允价值,调后亏 135.9 亿。截止 2023 年 6 月 30 日,员工数量为 5016 人,截止 2024 年 6 月 30 日,4672 名员工。商汤在本月迎来了它的十周岁生日。与此同时,人工智能界也迎来了一个重大里程碑:诺贝尔物理学奖表彰了“用物理学推动人工智能”的工作,而诺贝尔化学奖则表彰了“用人工智能推动蛋白质结构预测”的成就。这标志着人工智能与科学之间的相互作用,互为研究目的也是研究工具,预示着一系列学科领域的新范式即将开启。新版五十英镑钞票上阿兰·图灵的肖像下印着一句话:“这不过是将来之事的前奏,也是将来之事的缩影”,-“This is only a foretaste of what is to come and only the shadow of what is going to be.”-这或许是对我们这个时代最佳注释。务实来讲,我们已迈出了两步:即常说的传统AI1.0和生成式大模型A1 2.0。通常,AI 1.0被看作是专用智能,专注于单任务好信息处理;人I 2.0被视为通用智能,强调多任务好内容生成。但这样的描述虽然简单易懂,却并非完全准确,因为通用与专用之间并无明确界限,而且AI的落地应用终究要场景化,比如生成式大模型在垂直领域的应用。在我们看来,AI 1.0 和 AI 2.0 的一个重要区别在于AI成本结构的变化。在传统的 AI 1.0时代,模型生产的主要成本在于研发人员的投入。而在生成式大模型A1 2.0时代,模型生产的成本主要在于算力资源的投入。随着尺度定律在大语言模型、多模态模型、视频生成模型以及慢思考推理过程中得到验证,生产和使用大模型的成本可以直接等价于算力资源的消耗。简言之,生成式大模型A的普及和商业化,需致力于降低大模型的生产和使用成本,这势必要结合大模型来迭代和优化算力,同时也需根据算力资源的特点来迭代大模型设计和应用。因此,在生成式大模型AI领域,商汤的核心战略是实现算力大装置(SCO)、大模型和应用(CNI)的无缝集成,以应用驱动模型,以模型带动算力的优化。我们确立了“大装置-大模型-应用”的三位一体战略,旨在通过数量级级别的优化,提升算力资源的使用效率,服务好我们的客户。我们致力于成为最懂算力的大模型服务商,和最懂大模型的算力服务商。在传统AI领域,我们将充分利用我们的视觉感知和多模态模型的核心能力,集中资源,明确方向,并通过一套研发投入,同时服务国内和国际市场。在组织层面,围绕战略和核心资源,我们将构建更加集中和高效的组织架构,推动资源的集中和集约化投入,加快组织和管理的年轻化进程。在商汤十周年和通用人工智能时代即将来临之际,让我们一起重拾创业初心。感谢过去十年每一位商汤人的付出和努力。希望我们继续保持过去的坚韧、勇敢与乐观,主动拥抱变化,坚定不移地探索“科技原创和产业价值闭环”的道路,在接下来十年的征程中努力奔跑,共同定义与开创通用人工智能时代!