微软Majorana 1引争议,深聊硅谷五大派系的量子角力
10 小时前 / 阅读约31分钟
来源:36kr
量子圈集中发布更新,突破还是炒作?

近期,硅谷的科技领袖之间迎来了一场激烈的"量子"较量:

2024年12月9日,谷歌宣布最新量子处理器Willow的突破性成果,引发资本市场剧烈波动:各种量子计算概念股暴涨、一个月内翻了几倍;

2025年1月初,英伟达创始人黄仁勋泼冷水,“有用的量子计算还要等十几年”,Meta的CEO扎克伯格也公开表达了类似观点,让量子计算概念股狂跌。

在2月19日,微软宣布推出一种全新的量子计算解决方案:全球首款“拓扑体”量子计算芯片Majorana 1。这给业界和市场又注入了新的乐观情绪,让量子概念股出现反弹。然而,微软的论文却因为未能提供足够数据,并未说服业内众多科学家,引发广泛争议。

紧接着2月27日,亚马逊又发布首款名为Ocelot的量子计算芯片。

显然,量子计算已经成为了硅谷科技大厂们布局的下一主战场。

这项革命性技术为何能够引发科技大佬们之间的争议?各家巨头的路线布局有何不同?它会如何颠覆如AI、银行金融及区块链等市场?以及,量子计算距离普通人到底有多远?是概念炒作还是下一个计算革命的开端?

带着这些问题,我们走进硅谷的一家量子计算机实验室,还有机会亲手帮忙安装了台量子计算机,同时与从业者们一起聊聊量子计算和硅谷五大派系的量子角力。

01 量子计算

Chapter 1.1 什么是量子计算?

在经典计算机中,所有的信息都是用0和1来表示的,比特是最小的信息单位,在任何时刻只能处于两种状态(0或1)中的一种。

但在量子计算机中,量子比特不仅可以是0或1,还可以同时处于0和1的叠加状态,但这并不意味着它"同时是0和1":它处于一种概率分布状态。

正如薛定谔的猫既是活的又是死的,量子比特在被测量之前有一定的概率是0,也有一定的概率是1。

或者以一枚快速旋转的硬币为例:在经典物理中,硬币只有正面朝上和反面朝上两种可能,但如果把硬币旋转起来,停下之前的硬币同时具有"可能是正面"和"可能是反面"的特性。旋转的状态某种程度上便类似量子比特的叠加态。

此外,量子比特之间还可以产生纠缠,而一个量子比特的状态改变,会立即影响到与之纠缠的其他量子比特。

假设有两只被分开放置的魔术手套,彼此会影响颜色,而一旦左手手套被戴上后会随机变成红色或蓝色,此时远处的右手手套则立即变成相反的颜色,这种相关性不受距离影响。

这种特性使得量子计算机可以同时对多种状态进行运算:假设有3个量子比特,由于叠加态的存在,它们可以同时表示8种(23)不同的状态;传统计算机则只能一个个处理。

当量子比特数量增加的时候,这种优势会呈指数级增长。

量子计算机相比经典计算机的优势,可以类比《三体》里提到的多维空间:假设要从A点到B点,如果中间有障碍物,在二维平面上必须通过绕路才能到达,而三维空间中则可以轻松地"跨越"这些障碍。

经典计算机中,所有信息都是用0和1表示的,就像二维平面上的生物,只能左右或前后移动;而量子计算机中,量子比特能够同时处于0和1的叠加态,还能与其他量子比特产生纠缠,这就像获得了往"上下"方向延展的能力。

所以量子计算的本质就是:它不是简单地让计算变得更快,而是提供了一种全新的计算维度。

仅仅10个量子比特,就能够探索210(1024)个维度的空间;当量子比特增加到50个,这个空间就大到连最强大的超级计算机也无法模拟。这种"维度爆炸"正是量子计算强大的根源。

不过量子比特的脆弱性,使其极易发生退相干现象(因环境干扰而失去量子态)。这导致系统错误率会随量子比特数量呈指数级增长,就像搭建积木,层数越高,微小误差累积引发的崩塌风险就越大,最终使得计算结果可靠性骤降。

这个困扰了科学家们几十年的难题,直到2024年谷歌Willow的出现才迎来转机。

Chapter 1.2 谷歌Willow芯片

2024年12月9日,Google发布了新型量子芯片Willow。它只用不到5分钟便可以完成传统超级计算机需要1025年的标准基准的计算,震撼了整个科技界。

其实这不是量子计算第一次进入大众的视野。2019年,同属谷歌旗下的“Sycamore”量子处理器首次证明了量子优越性,即量子计算机能够在特定问题上超越最强大的经典超级计算机。

当时,Sycamore处理器被证明能够在3分20秒内,执行Summit(当时最强大的经典超级计算机)大概需要10000年完成的计算。这在当年也引发了外界和媒体的关注。

但相比起当时的Sycamore给外界带来的震撼,这一次谷歌发布的Willow更是上了好几个台阶。

Willow最大的突破在于,随着谷歌使用更多的量子比特,Willow可以成倍地减少错误。这解决了量子计算近30年来一直在研究的量子纠错的关键挑战。

Jared Ren

Anyon Technologies CTO:

当时存在的问题是随着量子比特数量做多、整个系统做大,量子计算机的可靠性是有所下降的。而Willow 最关键的成就之一是,它证明了随着量子比特数的增加、整个量子计算机规模的扩大,算力也是稳步提升的。那就可以看到一个非常确定的路线,只要沿着这条路线走下去,最终一定会能达到那个阈值,实现量子计算机对实际应用问题的可行性。

量子计算面临的最大挑战之一是“错误”。因为量子比特会与周围环境快速交换信息,很难保护完成计算所需要的信息,而使用的量子比特越多,错误也就会越多。就像庞大的交响乐团,用的乐器越多反而越容易跑调。

然而Willow打破了这个魔咒,原因就在于它独特的量子纠错方案:将多个物理量子比特组合成一个逻辑量子比特,这些量子比特通过特殊的算法,可以相互校验和纠正错误,从而降低整体系统的错误率。这也意味着,它的量子比特用得越多,错误反而越少。就像在高楼中的减震系统,让高建筑也能保持稳定。

要证明在纠错方面取得了真正的进展,就必须证明“低于阈值”,即错误率的指数级降低。

谷歌量子计算团队从3×3的量子比特网格开始测试,扩展到5×5、7×7,每次扩展的错误率都会降低一半。可以说,Willow这次摘下了1995年以来量子计算领域的圣杯。

因此,业内很多人将Willow称为"量子计算的Transformer时刻":就像Transformer架构证明了深度学习模型可以不断地堆叠、持续地扩大,Willow也首次证明了量子计算机能够在保持稳定性的同时不断地扩展规模。

作为首个实现“低于阈值”的系统,Willow证明了实用的超大型量子计算机是可以被造出来的。

正如谷歌自己在博客文章中写道:“这有力地表明,实用的超大型量子计算机确实可以构建。Willow让我们更接近运行传统计算机上无法复制的实用、商业相关算法。”

对此,连一向和谷歌不对付的Elon Musk也给了个“Wow”的感叹,OpenAI的CEO Sam Altman亦发表了祝贺。

Willow大约有150个量子比特,而谷歌计划最终构建一个拥有100万个量子比特的系统。作为谷歌开发“可执行有用应用”的量子计算机六步战略中的第二个里程碑,它的突破性发展给谷歌的量子计算带来了清晰的发展路径。

Jared Ren

Anyon Technologies CTO:

谷歌的量子计算路线图一直非常清晰,已经公布了到2030年以后的量子路线图。而且,他们在两三年前的路线图上,就已经标定了(Willow)2024年会实现。我们看到它的路线图在精准地完成,所以我们非常相信谷歌的预估时间,这也加强了我们的信心,无论是谷歌还是我们自己,都会一步一个脚印,渐进性的发展。

如果说Willow是量子计算的Transformer时刻,那量子计算的GPT时刻就是:量子计算机能够可靠地解决大规模的质因数分解问题的时候。这不仅是一个技术指标,更是量子计算真正展现实用价值的一个转折点。

根据各大公司的时间线规划,这个“量子GPT时刻”可能会在2030年左右到来,标志着完备的、大规模的量子计算机的诞生,这点让量子计算的业内从业者大受鼓舞。

Roger Luo

Anyon Technologies创始人与CEO:

大家都在追求完备的量子硬件,但是需要一定的时间。特别是Willow出现后,让接下来5~6年的时间线更明确了,因为工程上已经验证了第一步,下一步就是把它规模化。基本上Google、IBM路线图都是公开的,即使不同公司的时间线会略有浮动,但基本上都是在2030~2032年,会做出一个完备的、容错的量子计算机,可以去跑各种指数级加速算法。

而Willow的成功,让量子计算从一个科学问题变成了一个工程挑战;前沿科技研究员们找到了通往量子计算实用化的明确路径:AI+软件+硬件。

Jared Ren

Anyon Technologies CTO:

量子相关的软件和硬件是相辅相成的。从最底层的芯片设计来说,软件辅助设计,像英伟达和谷歌今年已经用GPU甚至用AI来加速最底层芯片的仿真和设计优化,这是最底层的软件和量子硬件的结合。再往上一层是,当芯片生产出来后,需要对芯片进行一定的标定。现在CPU的中间层也夹杂着很多偏向机器语言的底层软件层。而软件可以代替人工来对芯片的参数、运行模式进行一定的标定,而且对芯片的工作状态进行一定的优化。软件和AI在这上面的作用其实非常的大。

Willow的发布,以及谷歌对量子计算的明确路径在科技巨头之间引发了有趣的"趋同"现象。比如,IBM原本坚持"固定参数"路线、追求单个量子比特的极致性能,但也开始向谷歌的"可调"路线靠拢。

接下来我们来聊聊,科技巨头之间的量子角力、对不同路线的押注。

02 科技巨头卡位战

Chapter 2.1 量子领域三大玩家

美国科技巨头的量子计算部门,都要追溯到各大顶尖高校的学术大拿和团队。最引人注目的三大玩家(IBM、谷歌和亚马逊)背后都有一段学术界"师承"。

IBM最早的量子芯片设计来自耶鲁,当年耶鲁实验室里有两位门对门的研究者。

第一位是RobertSchoelkopf教授,他是耶鲁大学应用物理系的教授,他的研究对IBM的超导量子计算发展产生了重要影响,成为了IBM量子计算的技术源头。

另一位则是Michel Devoret教授,他的学生Chad Rigetti也加入了IBM工作,之后于2013年自己出来创立了Rigetti Computing公司,也是如今在风口浪尖上的量子计算概念股之一。

还有一个举足轻重的高校是加州大学圣巴巴拉分校(UCSB),整个量子计算团队于2014年被谷歌一举收购,几经发展,有了现在的Willow。

另外一个巨头亚马逊,在2021年大手笔把加州理工大学的量子计算实验室收入麾下,在那里创立了AWS量子计算中心。我们的采访嘉宾Roger正是当年加州理工量子计算团队的博士,之后进入伯克利大学做博士后。

这种紧密的学术渊源,让美国量子计算领域形成了一个高度集中的技术社群,但也让几大科技巨头因为学术的高校源头不同,有了不同的技术路线之争。

比如IBM,谷歌和亚马逊这三家公司就选择了截然不同的技术路线

IBM最保守,相信"固定参数"的设计,把量子比特和耦合都做成固定的,同时不需要很多控制参数就能让这个芯片运转。这种设计在小规模上很稳定,但要做大很有挑战,不过IBM有自己的芯片工厂,有信心把制造精度做到位。用业内人士的话说,这就是"求稳"的路线。

Roger Luo

Anyon Technologies创始人与CEO:

其实在当年肯定是合理的,但是有个小问题:控制参数少、固定参数,复杂性小的代价是,把整个系统做大会很复杂,因为不可调的参太多了,意味着制造过程就必须非常精准,而且随着芯片做的越大,精度要求就越高。最早的大学实验就两个比特,参数怎么都不会有太大问题,当要造一百个、一千个的时候问题就大了。但是IBM公司够大,有资源去投入。

而谷歌则选择了完全相反的路子。

谷歌收购的加州大学圣巴巴拉分校的团队主张所有参数都要可调,这样即使制造不够精密,也可以通过调节来补偿。有点像安卓:不要求每个零件都完美,但是要保证整体能运行。这让他们能用大学实验室的设备就做出了突破性成果,不过也为此付出了一年的时间来迭代。

Roger Luo

Anyon Technologies创始人与CEO:

因为制造不是那么理想化的,所以UCSB(加州大学圣巴巴拉分校)团队要做到全部都可调。好处就是量子芯片的运转可编程,那么制造要求可以降低。比如在2019年前,Google的芯片制造大部分还依靠大学的洁净室(clean room),不像很多别的团队上来就有几个亿的资金去做。他们需要先证明第一步可行,Google才批准了更多经费去建造自己的洁净室和控制团队。

所以,他们选择完全可调、可控的方式,是为了以尽量简单的制造方式去达成目标,有一点像安卓的思路。但坏处就是这个芯片的每一个部件都不算是业界领先,包括量子比特、耦合方式、保证度这些,虽然优秀但不领先。但就像硅谷一样,不锈钢能上天,为什么一定要用全世界最好的铝合金呢?Google也犯了这样的错误:去年他们第一次做出最早的量子纠错的成果,结果因为去年芯片不够好,所以他们花了一年的时间去迭代,而且还没有达到最优秀。Willow是非常符合逻辑的迭代,不能叫做突破。从我们角度来看是灵活性的代价,因为芯片质量会低,但是他们觉得可编程、可灵活性能带来更快的步骤、快速破局。

亚马逊则是更加激进,他们想开发一种全新的超导量子比特。2020年,亚马逊入局量子计算领域时直接给了一位顶尖教授一整栋楼和100多人的团队,希望能后来居上。

Roger Luo

Anyon Technologies创始人与CEO:

超导量子比特,那时候都没人做出超过一个量子比特的耦合。理论上来说超导量子比特有更好的可扩展性,它需要的量子纠错更小,因为量子纠错有复杂度问题。Google、IBM的方式有很高的复杂度要求、要做很复杂的量子纠错的算法。就算亚马逊在2020年打算找一个相对简单的量子比特,因此选择了猫量子比特(Cat Qubits)。

这三家公司在量子计算路线上的打法差异非常大:

IBM稳扎稳打、按部就班,每次展示的都是完全验证过的成果。Google喜欢"小步快跑",先证明可行性再慢慢优化。亚马逊想通过巨额投入直接跨越发展阶段,一步到位。

好比三种不同的赛车手,IBM开着经过精心调校的豪华跑车,Google开着可能不那么完美但够快的赛车,而亚马逊则是在车库里研发全新的引擎。

Chapter 2.2 英伟达、微软的布局与争议

除此之外还有英伟达和微软这两个重要玩家。

在量子计算领域,英伟达将自己定位为加速计算平台公司(accelerate computing platform company),策略很明确:一方面与量子计算公司合作,希望GPU在量子时代也能占据一席之地;另外一方面提供混合量子计算平台,帮助企业在真正的量子计算机出现之前就开始准备。

英伟达的态度是:“量子计算是不可避免的下一代超算平台,GPU不想被排除在外的。”

微软没有像IBM和Google那样投入巨资去研发超导量子计算机,而是选择了更具挑战性的技术路径,“拓扑量子计算”,这种方案理论上更稳定,但技术难度也更大。

量子计算目前发展缓慢的核心矛盾是量子比特非常脆弱,而微软在过去20年试图研发的“拓扑体”(topology)方案,是通过观察和控制马约拉纳(Majorana fermion)粒子产生更可靠和可扩展的量子比特。

拓扑学是研究图形或集合,在连续变形下的不变的整体性质的一门几何学。拓扑保护的意思是,信息藏在大结构当中,因此一些小扰动不会影响拓扑保护的信息,只有剧烈的全局变化,比如系统断裂,才能够破坏拓扑结构。

比如甜甜圈,不管怎么拉、压、捏,中间的洞都不会消失,除非把它整体撕开,这就意味着甜甜圈的形状具有“拓扑保护”:不能通过小的变形去改变它的基本特性(洞的数量)。

再比如耳机线打结后,只是拉伸或挤压死结都不会松开,只有剪断耳机线结才会消失。因此,“结”也是一种拓扑结构,必须彻底破坏(剪断)才能改变。

马约拉纳粒子由于自身是自身的反物质,成对出现的状态之间是拓扑保护的。微软就利用了这一优势,让量子信息存储在两个分开的马约拉纳粒子之间的“拓扑连接”里,这样哪怕其中的一个粒子受到局部干扰,整体信息依然不会丢失,使量子信息对外界干扰更稳固、不容易受损。

此前瓶颈在于,开发相关拓扑态的合适材料难度极大,但微软在2月19号发布的全球首款“拓扑体”量子计算芯片Majorana 1证明了这种新路径的可行性,为量子计算的进一步研发增加了更多的方向。

谷歌的量子纠错路线是通过控制来保护量子信息,而微软的拓扑比特本身就自带量子信息保护。

微软最终的目标是在巴掌大的芯片上放入100万个量子比特,同时也在布局量子开发工具和云平台,试图在软件层面占得先机。

不过微软发布拓扑量子计算的消息后,市场也出现了不小的争议:一些产业中的科学家,并不信服微软的研究和这次发表的论文,认为论文没有提供足够可信的证据。

《华尔街日报》引用一位物理学家的质疑称,微软的发布会上,为了佐证这项研究而展示的数据,只是初步数据,并不能确凿证明已经取得了这一进展。

在过去十年时间,很多实验室和团队都在研究马约拉纳费米子,但都没有让人信服的进展,这期间《自然》杂志上的数篇相关论文都被陆续撤回,包括微软的科学家Leo Kouwenhoven于2018年在《自然》上发表的号称观察到马约拉纳费米子的论文,却在三年后承认此文有“技术错误”而撤回。

所以这一次微软是否真的实现突破,还需继续观察其团队对目前质疑做出的回应和更多的研究论文。

总结一下这五家科技巨头的布局:

1. 谷歌率先证明量子优越性,走可编程路线

2. IBM依托芯片制造优势,追求高性能

3. 亚马逊大手笔投入,探索新型量子比特

4. 英伟达布局混合计算,发挥GPU的优势

5. 微软则押注拓扑量子计算,同时布局软件生态

这些巨头的量子布局似乎都带着各家公司的“基因”:IBM稳健、谷歌灵活、亚马逊试图弯道超车、英伟达重生态、微软重平台。在量子计算这个新赛道上,每家公司都在试图复制自己在传统计算时代的成功经验。

而在这之上,量子计算领域也正在形成有趣的合作与竞争格局。虽然技术路线有所不同,但是大家都意识到:量子计算不仅仅是硬件的比拼,还需要软件、算法和应用生态的支持。

03 量子计算对各领域的影响

有声音称,量子计算虽然厉害,但离大规模应用还太遥远了,一台实验室里的量子计算机甚至还不如大家的手机有用。但现实情况是,量子计算已经在很多领域开始展现潜力了。

Chapter 3.1 AI进化的新引擎

人工智能的发展正面临一个有趣的悖论:尽管我们见证了ChatGPT等大模型带来的突破,但是AI的根本性瓶颈却日益显现。

在最近的各种技术论坛和大会上,顶尖AI研究者们都指出了一个令人担忧的趋势:基于Transformer架构的传统AI正在遭遇泛化性不足的困境,它们需要消耗海量数据才能够提升性能。

更严峻的是,我们可能已经没有足够的优质数据来支撑AI向AGI(通用人工智能)迈进了。

而在未来AI走入死胡同之际,量子计算很可能由于高维特性会带来新的希望。就像我们前面说的一样,传统计算像在平面上画画,量子计算则可以在立体空间甚至更高维度中工作。

比如,仅靠10个量子比特就能探索2的10次方维度的空间,这种高维映射能力让量子机器学习算法能更容易地发现数据中隐藏的本质模式,就像是从高空能轻松俯瞰地面的全局图案。

Roger Luo

Anyon Technologies创始人与CEO:

维度不是不同的状态,维度这个空间就大多了。如果能将一个低维数据映射到高维空间做一些机器学习的话,有时会让模型更容易学习到数据里面的规律,这样两个数据集间的分类就很好做了。

量子计算对AI的革命性影响可能体现在两个层面:

首先是计算效率的提升。量子计算机有望实现矩阵运算的指数级加速,这正是机器学习中最核心、最耗时的操作。这意味着未来训练一个AI模型的成本可能大幅降低。

其次是学习能力的质变。通过更强的泛化能力,AI可能获得人类举一反三的学习能力,而不是简单地记忆大量数据。

虽然量子计算听起来复杂、昂贵、高深莫测,但在某些情况下它却可以帮助降低成本。

Roger LuoAnyon

Technologies创始人与CEO:

如果用泛化性更强计算机体系,去训练量子AI学习模型,那么数据需求都会缩小不止一个数量级。无论经典部分还是量子部分,计算需求都会小很多。经典部分计算需求缩小是因为数据吞吐量小了一个数量级,而量子计算的优势是,扩展到更大维度的方式是非线性的、是指数级的,(比如每增加一个量子比特,计算能力就会翻倍),所以资源投入会更少、计算成本更低。从经济学角度来讲,对于某些特定问题,如果你用10个量子比特,就能有210的维度去探索,但是经典计算机真得构造十个维度的空间去探索,这个成本是非常高的。

所以,如果2030年真的出现了完备的量子计算机,我们可能迎来AI发展的一个新纪元:AI也许只需要阅读几本代表性的书就可以掌握写作技巧,不是像现在需要消化整个图书馆。

这不仅让AI变得更智能,也让它更加经济实用,这或许就是AI发展的下一个范式:不是简单地堆砌更多数据和算力,而是通过量子计算开辟一条全新的进化路径,让AI变得既聪明又高效。

Chapter 3.2 对加密货币的威胁

量子计算机最早被设想的应用之一,就是破解当前广泛使用的“非对称加密算法”。这不仅威胁到加密货币,也关系到整个互联网的安全体系。

现在的加密货币,比如比特币,都依赖于特定的密码学算法。这些算法现在之所以安全,是因为传统计算机破解需要耗费天文数字般的时间;但量子计算机通过“平行计算”能力,可以在几分钟之内完成破解。

此前的Willow的突破已经证明,大规模量子计算机是可行的。虽然目前的量子比特数量还不足以破解所谓的加密算法,但也让"量子霸权"的威胁变得更加的真实。

有分析认为,当量子计算机达到约4000个稳定的量子比特的时候,就可能会威胁到现有的加密体系。

这在加密货币市场中引发了一些争议。比如,Avalanche创始人Emin Gün Sirer表示,目前的量子计算能力尚不足以威胁加密货币安全。

周载南

Namefi创始人、以太坊改进提案(EIP)编辑:

有一些新的区块链可能开始设计的时候,就会考虑引入一些相对可抗的、防止量子破解的方式,甚至包括我们现在常用的这些(算法),比如椭圆曲线,相对比90年代末期的那些哈希算法和函数,已经算是比较 Quantum Safe(量子安全)了。

但Paypal前主席David Marcus指出,Willow的进展表明量子抗性技术发展需要加速。以太坊创始人Vitalik甚至在很早就建议,通过硬分叉来增强区块链的量子抗性。

量子计算带来的挑战也催生了新的机遇。在加密领域,已经出现了三个主要的应对方向:后量子密码学、量子密钥分发和可升级架构。

1.后量子密码学致力于开发即便面对量子计算机也能保持安全的加密算法。

2.量子密钥分发则是利用量子力学原理实现绝对安全的通信。

3.可升级架构则是让系统能够灵活地应对未来的安全威胁。

加密货币社区已经开始行动了,多个项目正在研发"抗量子"的加密算法,使得这些新算法即使在量子计算机面前也能够保持安全性。一些区块链项目甚至在设计能够"无缝升级"的系统,以便在必要的时候切换到量子安全的加密方案。

周载南

Namefi创始人、以太坊改进提案(EIP)编辑:

StarkWare其实很早就在做量子可抗性(Quantum resistance)的相关研究,并且在设计ZK platform(零知识平台)的时候也有考虑过。以太坊研究会也在做这方面的研究。如果在以太坊安全受到威胁的情况下,硬分叉是不可避免的,它没有办法单纯的通过二层。因为量子计算如果能破解这几个加密或者哈希算法,动到的是以太坊的根基,甚至是比共识层还要基础的东西。(比特币)也是一样的,假如有一个新的量子计算算法或者是硬件,能够获取比特币的加密算法和哈希,那就得通过硬分叉来解决。

也有人持有不同意见,认为真正的威胁可能还要十年以上才会出现,加密社区有足够的时间做好准备。而且开发量子计算机的投入巨大,真正能构成威胁的量子计算机可能只会掌握在少数机构手中。

不过,量子计算对加密货币的影响可能是双面的。虽然它威胁到现有的加密体系,但也有可能催生新的"量子加密货币",利用量子特性构建更安全的数字货币系统。

这像一场永无止境的军备竞赛,新的防御手段总会应对新的威胁。

周载南

Namefi创始人、以太坊改进提案(EIP)编辑:

其实还有一批人在研究,怎么借助量子计算来超越区块链。比如,因为量子态很容易被摧毁,可能读取一次就被摧毁了,那么可以通过这种方式去创建一次性交易。现在防止双花(double spending)的方式是把交易放到链上,然后穿透,通过全球共识来防止双花。(双花:同一笔加密货币被多次使用,通常是攻击者试图让已花费的资金回到自己手中,从而欺骗接收方。)

但有了量子计算的时候,可以通过量子态被读取一次后就会坍缩的特性,用离线(off chain)的方式去防止双花。

所以量子计算的出现会带来更多可能性,比如临时、短暂的区块链,而不是每一个链的每一个交易都需要上链。可能很多人担心量子计算会对区块链有害,但在我看来,它也让区块链的发展有更多的可能性。

随着“量子计算”这个名词被各个行业不同的人越来越频繁的提起,各大机构都在密切关注量子计算的进展、加紧研发应对方案。在量子时代,“安全”将不再是一个静态的概念,而是一个需要持续升级和适应的动态过程。

Chapter 3.3 金融机构与新材料开发

当人们还在争论量子计算是科幻还是现实的时候,一些领域已经悄然展开了实践。

在所有可能的应用场景中,金融机构走在了最前面。因为这个行业掌握了最真实的用户数据、有明确的应用场景、具备充足的研发资源。

2024年7月,新加坡金管局启动了一个开创性项目。与传统的研发资助不同,他们选择直接向银行提供资金,而不是资助科研机构。这体现了一个重要理念:真正的创新往往来自那些最接近实际问题的使用者。

目前银行们已经在三个方向展开了尝试:利用量子算法优化交易策略、通过量子机器学习提升风险预测的准确性、在更大的解空间中寻找投资组合的最优配置。

此外,在材料科学领域,量子计算的优势更为明显。因为量子计算机本质上就是一个量子系统,天然适合模拟其他的量子系统的行为。这项能力在新能源材料、航空航天材料和催化剂开发等领域都显示出巨大潜力。

比如传统计算机在模拟包含100个电子的分子系统的时候,由于需要处理指数级增长的复杂性,所需的存储空间可能超过整个宇宙中所有原子的数量。而量子计算机因为基于量子力学原理,能够高效地模拟这种量子系统,自然地处理量子叠加和量子纠缠。

同时量子计算在新材料开发方面具有先天优势,从更高效的太阳能电池到新型航空材料,都可以从量子模拟中受益。

Meta最初选择以开源的路线来加入大模型战局,而非像谷歌、OpenAI和Anthropic选择闭源,是想参照当年谷歌开源安卓系统的模式:不从系统本身赚钱,而是等生态发展起来之后从广告和Google Play等应用上赚钱。

Roger Luo

AnyonTechnologies创始人与CEO:

量子机器学习希望能在真实的应用场景里面去产生有意义的结果。比如化工和物流行业,是通过混合量子系统去做化学模拟,去找到一些化合物的最后产品。在太空方面,量子计算可以加速材料的新材料开发,也许让上天的飞行器的材料变得更好,比如用来研制太空电梯的绳索,或者以后的火箭可能连隔热瓦都不需要,用特殊的金属可以直接承担返回的高热。

所以量子计算可能会真的加速人类的太空梦,也难怪Sundar Pichai回复马斯克的推文时,还开玩笑地提到,要用星舰在太空中打造量子集群。

在完备的量子计算机出现之前,业界正在探索混合“量子+经典系统”的过渡方案。

"混合量子计算"结合了传统计算机和量子处理器的优势,让企业能够在完全体量子计算机出现之前,就开始探索量子算法。

以银行为例,它可以用自己的交易数据在混合系统上测试量子算法,为未来的全面转型做准备。

目前,量子计算正在经历从实验室走向现实应用的关键阶段.虽然完全体的量子计算机还需要一些时间,但混合量子计算已经开始显示出实用价值,各行各业都在积极探索如何将量子技术融入自己的业务流程。

04 量子计算的未来

除了企业和加密货币行业的提前布局,华尔街也已经提前布局了。

比如最近行情过山车的量子计算概念股。Rigetti、D-Wave Quantum、IonQ这些公司在几个月之内一度翻好几倍,又在市场争议之际疯狂下跌。

这反映出市场和外界对量子计算这项特殊技术并存的期待和质疑、炒作和投机。

戏剧性的是,此前唱衰量子计算的英伟达,突然宣布将在2025年3月的GTC大会上举办"量子日"活动。黄仁勋和一众量子计算领域的领袖们,将一起探讨量子计算的可能性、现有的技术、发展方向,让市场再次充满期待。

关于量子计算何时能够实用化,行业内经常也有人说"还要10年、20年、30年"。但采访嘉宾认为,这种估计往往是一种"懒惰"的说法。因为历史告诉我们,一旦技术的可扩展性得到证明,那么实现突破的时间往往比人们预期的要短很多。

量子计算的未来,不会是一蹴而就的革命,而是一个渐进的演化过程。

就像电脑的普及经历了从科研军工到华尔街再到千家万户的过程,量子计算也会先在特定领域证明其价值,然后逐步渗透到更广泛的应用中。在这个过程中,成本的下降和技术的成熟都需要时间。

但是展望未来,量子计算带来的改变很有可能超出我们现在的想象,正如我们无法用1960年代的视角预见今天的智能手机一样。

但在这条路上,我们已经看到了一些令人期待的应用场景和业界尝试。量子计算的未来,也许会比很多人想象中,更早地到达我们身边。而当这一刻到来之际,也是人类能继续向前迈进一大步的时候。