专注AIGC领域的专业社区,关注微软&OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!
今天除了OpenAI正式开放Sora之外,还有一个大消息,谷歌的量子芯片Willow实现了两项重大技术突破。
第一,Willow解决了30多年来一个关键难题,可以在使用更多量子比特进行扩展时指数级地减少错误。
自1995年Peter Shor提出量子纠错理论以来,科学家们一直在努力寻找有效的方法来纠正量子计算中的错误。在量子计算中,量子比特容易受到环境噪声的影响,导致信息丢失或状态改变从而产生计算错误,会严重影响量子计算机执行复杂计算任务的能力。所以,如何有效地进行量子纠错成为了实现大规模量子计算的关键难题。
而Willow可以在增加量子比特数量的同时有效地控制并减少错误,并实现了“低于阈值”的表现,这意味着它可以驱动错误率降到足够低的程度,以至于即使增加量子比特的数量,也能保持良好的纠错效果。
第二,Willow在量子计算方面实现宇宙级突破。在RCS标准测试基准中,Willow能在5分钟内完成计算测试,而当今最快的计算机来进行测试都最少需要10个septillion年。也就是10^25年,大约100亿亿年,其计算能力只能用恐怖来形容。
要是用这玩意来挖比特币,那是真扛不住啊~挖个三五年妥妥的要挖空了。
就连OpenAI的首席执行官Sam Altman都特意点赞转发大大的祝贺,可见Willow的成果有多大。
就有网友担心,这么强的算力,对比特币太不友好了吧!
鉴于Willow在量子计算方面的突破,量子计算对比特币加密算法(如SHA-256和ECDSA)的威胁会比预期更早成为一个重大问题。
据我了解,量子技术的进步对比特币加密安全(例如,使用Shor算法破解私钥)构成了更大的风险,尽管这被认为仍需多年时间才能实现。
这算力太恐怖了!什么时候可以在几秒钟内训练一个拥有一万亿参数的AI模型?
这个芯片难道不会以极快的速度挖掘出所有剩余的比特币吗?
Willow技术解读
量子计算面临的最大挑战之一是量子比特的错误问题。量子比特是量子计算机中的计算单元,它们倾向于与环境迅速交换信息,这使得保护完成计算所需的信息变得困难。通常情况下,使用的量子比特越多,发生的错误就越多,系统就越趋向于经典状态。
Willow中使用的量子比特越多,错误就越少,系统就越保持量子特性。谷歌测试了越来越大的物理量子比特阵列,从3x3的编码量子比特网格扩展到5x5,再到7x7,每一次,利用谷歌最新的量子纠错技术,都能将错误率减半。
换句话说,Willow实现了错误率的指数级降低。这一历史性成就在领域内被称为“低于阈值”,即在增加量子比特数量的同时降低错误率。要展示在错误纠正上取得真正的进展,必须证明能够做到“低于阈值”,自从1995年Peter Shor引入量子纠错以来,这一直是一个巨大的挑战。
这一成果还涉及到其他科学上的“首次”。例如,这也是实时错误纠正在超导量子系统上的首次有力例证——这对于任何有用的计算都至关重要,因为如果不能足够快地纠正错误,它们会在计算完成之前破坏计算。
此外,这是一个“超越收支平衡”的演示,谷歌的量子比特阵列的寿命比单个物理量子比特的寿命还要长,这是错误纠正正在改善系统整体性能的不可否认的迹象。
作为第一个“低于阈值”的芯片,这是迄今为止构建的最有说服力的可扩展逻辑量子比特原型。这是一个强有力的迹象,表明确实可以构建出有用的、非常大的量子计算机。Willow让谷歌更接近于运行实用、商业相关的算法,这些算法无法在传统计算机上复制。
谷歌的Willow量子芯片是在位于圣巴巴拉的最新、最先进的制造设施中制造的——这是世界上为数不多的从零开始为这一目的建造的设施之一。
在设计和制造量子芯片时,系统工程至关重要:芯片的所有组件,如单量子比特门、双量子比特门、量子比特重置和读出,都必须同时得到良好的工程化和集成。
如果任何一个组件落后,或者两个组件不能很好地协同工作,它就会拖累系统性能。因此,最大化系统性能指导着Willow从芯片架构和制造到门开发和校准的所有方面。Willow报告的成就全面评估了量子计算系统,而不仅仅是一次一个因素。
Willow关注的是质量,而不仅仅是数量——因为如果量子比特的质量不够高,仅仅生产更多的量子比特是没有帮助的。拥有105个量子比特的Willow现在在上述两个系统基准测试中具有最佳性能:量子纠错和随机电路采样。
这些算法基准测试是衡量整体芯片性能的最佳方式。其他更具体的性能指标也很重要;例如,Willow的T1时间,它测量量子比特能够保持激发状态,关键的量子计算资源的时间,现在接近100微秒。
本文素材来源谷歌,如有侵权请联系删除
END