棱皮龟

注册

 

发新话题 回复该主题

量子计算机新世纪的工业革命 [复制链接]

1#

量子,作为一个超级话题,如果在吹牛逼的时候带上两句,会立马让人瞬间高大上起来!这个话题不但是民科超级喜欢吹,就连官方也是超爱的话题;什么中科院的量子信息重点实验室实现在固态系统中对三维量子交缠态实现量子存储,也就是“量子U盘”;美国大学研发的抗干扰的“量子雷达”;德国开发在磁场下实现的“量子传感器”;俄罗斯量子中心测试的“量子区块链”系统;就连谷歌也开发出了72量子比特通用“量子计算机”、、、等等一系列成果。是不是感觉量子世界立马就要来了,是不?

量子力学在世界上不一般的火热啊,咱今天就来讲讲量子力学,先开始重新认识一下量子力学台前幕后的英雄。

百年量子

19世纪末物理学在技术层面被压榨的差不多了,还好在20世纪初期诞生了相对论跟量子力学。相对论直到今天还是在原地踏步,在宇宙宏观用的较多,对人类产生实际的效益却不多。人类从20世纪到现在主要消耗的还是以量子力学为主,而且消化的方式比较的单一:量子力学——材料学——应用技术。

量子力学主要以“新材料”推动着社会技术的发展,最成功的例子就是半导体领域的计算机,现在的材料学、物理学、核物理学、化学的理论基础还都是量子力学,从这也可见贡献之大。但是呢,量子理论却很少拿来直接使用,不然我们的生活会更精彩:瞬移、穿墙这些都不是梦。

如果说,人类的自然规律是一部恢弘巨制的战争史话,那么理论物理就是正面战场。从20世纪中期开始,人类在物理学基础上的研究可以说是寸步未行,还是在啃以前的老本!换句话说,理论物理已经在原地踏步快半个世纪了,什么上帝粒子、引力波都是上个世纪的物理研究成果。

所以呢,现在留给后人的路就只剩下两条:要么硬刚相对论,在上面踩条路出来。要么就只能在相对论上开辟第二战场,也就是通过“非材料学”的方式开发量子力学,也就是实现现在很火的“量子技术”。而后者已经研究半个世纪了,显然更靠谱一下不是,毕竟量子力学还是有些成功的例子可以做参考的嘛,比如原子钟、对撞机等。量子计算机、量子通讯技术的实现,正是量子技术领域实现的第二战场,但这并不是人类在与自然竞争中的突破,相反,这一切是人类对现存理论物理的最后一点应用开发了。

现在该说正题了,传统计算机的一次运算,究竟干了啥?

传统计算机的1和0是用电流实现的,有电流代表1,没电流代表0。所谓的运算,就是把一堆的0和1,变成另外一堆的1和0。而这个转变的过程是由一堆的PN结组成的电路实现的,也就是处理器。

而我们经常说的32位处理器和64位处理器,指的是一次能处理的最大位数。32位的处理器就只能一次将一组32个1和0变成另外一组32个0和1;如果有10组,那就得处理10次。如果是64位的,那就处理5次就行了。当然啦,这个解释很勉强,将就看一下啦。

不过别跟计算性能啥的搞混了,计算机一般用“浮点运算”表示性能,和计算机运算是两回事,一个是看谁跑的快,一个是看谁跑的步数多。

虽然处理器动不动就是每秒运行多少多少次,但是呢,实际上也干不了多少事,因为要成堆成堆的处理0和1。现在的处理器就像是一台大功率的抽水机,面对汪洋大海一般的数据,还是显得那么力不从心。

现在提出的解决思路呢也有,两条:

第一呢就是改变表示数据的方法,不只是用0和1来表示,从而将汪洋大海变成一个湖泊甚至是一条河流,减少相应的数据总量。这个呢就是属于数学的范畴,咱们还是留给将来的数学天才把。

第二个呢就是不用电流来实现1和0,这个还是能实现的,比如机械硬盘里的1、0是用磁针的方向来实现的,不过控制磁针的方向远不如控制电流的来的方便,所以,在硬盘拷贝的时候,处理器就可以干点其他的事了。那么就得找到更好的物理现象来实现0和1了,使处理器的性能速度更快,争取一口气把大海抽干,那就需要我们的主角了、、、

量子计算原理

有请我们的开山鼻祖闪亮登场:费曼,这可是一个神一般的存在。他说,这个世界是量子的,那研究世界最终还得靠量子的方法,于是他老人家提出了量子计算机的概念。

量子通信是量子交缠的直接应用,而量子计算机是量子叠加态的直接应用。那么什么是叠加态呢?

马上有人会说不就是“薛定谔的猫”嘛,额,有点相似。叠加态这玩意就跟眼神一样,一个眼神可以表示爱,也可以表示恨,或者是两者都包含在其中;更重要的是,这爱和恨还不互相干扰,也就是说看到爱的人看不到恨,看到恨的人看不到爱!

比如,上司一个眼神飞过来,有的人呢感受到爱,也有的人呢感受到恨,于是这两个人把自己的感受用眼神飞给下一个人,最后一个人得到最后的计算结果。

如果是传统的计算机,就得对一个人说我爱你,对另外一个人说我恨你,得发两次信息,这效率就有点低了。

这个传统的计算机只能把一组一组数据塞到处理器里,而量子计算机是把一堆的数据叠加在一起,一次性打包塞进去。这就是量子计算机最主要的功能:并行计算!

这个方式还是有计算公式进行表达的,不然有人会说我是满嘴放炮——瞎开车,

这个叠加态用来描述信息,1个量子态可以包含2个信息,2个量子态就是4个信息,3个量子态就是8个信息了,知道有多恐怖了把,传统的32位处理器只能一次处理32个信息,这10个量子态就是个信息了,在往上加一加,就可以超过超级计算机了,如果在翻10倍,个量子态,那全世界的计算能力总和瞬间被秒了。

至于粒子为啥有可以进行叠加,为什么会有叠加态这么一个buff?那么答案只有一个:呵呵哒。

现在基础有了,就该开始盖楼了把,那么用什么技术去实现呢?这个叠加态的信息怎么进行运算呢?运算后又用什么样的方式进行表达呢?怎么样才能做到完美输出呢?这个就需要很深的量子力学功底了,咱也不去深究了,不然就真的是量子力学——不自量力!!!

中国量子

目前我国研究最前列的还是以中科大的潘建伟教授,他研究的光量子计算机在国际上也是数一数二的存在,毕竟国际上就两家:中国和美国。潘老师呢首先是量子通信专家,其次才是量子计算机专家,所以用光子的偏振方向代表0和1.

这个光子量子计算机首先有单光子源,这家伙每次就产生一个光子,一个光子被单格晶体劈成两瓣,就变成了相互交缠的两个光子,如果在多劈几次的话就可以变成多个交缠光子,然后分成多路进入光学量子网络,接着就进入到这个量子矩阵汇中,对这个光量子进行操作,最后由单光子探测器得出最后的量子计算结果。

这个光子被劈的越多,对整个系统的要求就越高,目前潘建伟团队最多可以劈出5个交缠光子,运算的性能也超越了人类第一台计算机。

不过这个的说一声,这个光量子计算我国是走在了世界的前列,但要是说这个量子计算机还是为时过早,甚至连手机性能都比它强,只能说这个量子计算的路算是可以走了。

中国的量子计算机形状,是不是感觉特魔幻,跟世界上第一台计算机样,不是一般的大,那么能不能在进行压缩呢?

欧洲离子阱量子计算机

不过相对不听话的电子,离子的个头不但大,而且还好控制多了,量子逻辑也更容易操控,所以现在离子阱量子计算机就是最先提出的量子计算机概念了。

把原子外面的电子打掉就可以获得离子了,再用低温把离子控制起来,用他的能级来表示1和0。测量能级是有相当成熟的技术,去看光谱就行了,而且只要用激光去照射离子就可以当逻辑门来使用,从而实现1和0的转化,完成相应的逻辑运算。

但是呢,这个还是有天花板的,这几个离子好控制,如果数量一上去就完蛋了,没法由数变引发质变,而且这个激光照射的效率不是一般的惨,问题一大堆。这个主要还是欧洲的奥地利科学家在玩。

这套离子阱量子计算机也是超级魔幻啊。

超导量子计算机

用光子来做量子计算机的优点很强,缺点呢也是很明显的,光子这玩意太难捉摸了,转瞬间就飞了,没法做更细致的操作,普遍认为可延展性还是不够高,现阶段理论上做到10个量子态就已经超神了。

超导量子系统相对其他的量子系统,这家伙的可操作性与可延展性是属于秒杀的存在,在量子学界是公认最有可能实现大规模集成的量子芯片,这家伙可以轻松的做到几百个量子比特。同样的,有明显的优点就会有明显的缺点。

超导量子计算的核心首先就需要超导,这东西的核心单元是以“超导体—绝缘体—超导体”三层结构构成的。这个电子在超导的情况下有一定的可能性会完成跨越,用一个超导体穿过绝缘体跳到另一个超导体上,这种电子的自由度不是一般的高,不是很听话,所以这个计算准确率是相当的感人。

嗯,这超导量子计算机处理器长这样,咱们看看就好,深究下去就算了,没那实力。

其实在微观世界中量子效应是一抓一大把,所以实验的方式还有:固态核磁共振、中性原子、半导体量子、腔量子电动力学等等,玩家呢也大多集中在中美欧。

量子计算机现状

虽然这个媒体是不遗余力的夸赞,但是这个业界内的争议却一直没有停过,悲观的认为这就是在哗众取宠,搞了半个世纪了,连点像样的进步都没有;而乐观的却认为,改变世界的机会就在眼前,马上就可以进入一个新的纪元。那么,他们争论的核心到底是什么呢?

好了,前面讲的还是只是开胃菜,下面就该开始上正席了。

传统的计算机是靠逻辑门完成运算的,同样,量子计算机要完成运算也需要考逻辑门。也就是说,量子要通过幺正变换来实现量子比特从一个状态转换成另一个状态。更复杂点说,量子逻辑门,就是量子力学中的幺正算符,幺正算符作用到量子状态上,使量子态按照要求进行运算。

那么这玄幻的家伙,到底是个什么样子呢?不好意思,你问也得不到答案,大家都是一头的雾水。简单的说,现阶段的量子计算机可以都说是没有逻辑可言的,全经验来猜;更简单的说,现阶段的量子计算机没法将1变成0、或者是0变成1。或者说,现阶段的量子计算机压根就没法完成真正意义上的运算。是不是瞬间感觉就是扯淡?那我们还吹得这么起劲干啥?

别急,我们这个还是有救的。

在年美国有两个超级计算机科学家提出了“玻色取样”,通过针对经过线性器件处理的玻色子概率分部进行抽样,可以很快的求得矩阵常值。那到底什么意思呢?

无数的量子比特经过特定的矩阵后,分布的范围是有一定的规律的,把这些数据进行统计就可以算到相应的矩阵常值了。

这个东西就是一个纯数学问题,说多了更乱。这个还是交给未来的数学家把,咱们就知道这东西对人工智能啥的有用处就行了,像机器学习啥的能用上就行了。

从学术上说,这并不是一台真正意义上的计算机,于是呢,科学家就取了一个专有名词“专用量子计算机”,也就是俗称的量子模拟机。相对应的就是“通用量子计算机”,通用量子计算机有专门的量子逻辑门,能够实现把1变成0,这才是真正的量子计算机。

可惜的是,前者商业化运行的是相当的不错,而后者还在像乌龟一样慢慢爬,丝毫不急.

既然这个量子计算机发展前景是这么的诱人,那商业巨头们不得还像鲨鱼一样,蜂拥而上啊。于是,就是我们现在看到的,现阶段的量子是满天飞。

专用量子计算机

最早进行量子计算的是加拿大的D波公司,年美国的洛克希德马丁公司花费了0万美金买了D波公司的第一台量子比特的商业专用化量子计算机D-wave-one,年谷歌也出来凑热闹,花了万美金买了第二代量子比特的D-wave-two,现在的D波公司已经推出了个量子比特的量子计算机,不过呢,虽然这么发达了,情况却还是不一般的尴尬,都是打着量子计算机的擦边球在发展。

年谷歌也加入量子计算机大军,实现了9量子比特;年中国发布了10量子比特的超级量子计算机,紧接着IBM就说他们研究出了16量子比特的,马上英特尔就表示研究出了17量子比特的;年底的时候IBM表示不服气,直接干到50量子比特了、、、这节凑不是一般的快啊,一年的时间就完成了半个世纪的路程。

IBM的量子计算机英特尔的量子芯片

在这个领域,谷歌是在首位进行发展的,在年就说要推出72位的通用量子计算机,你没听错,是“通用”的!!!谷歌想着一举夺魁,实现量子霸权(意思就是说大家用我家的就行了,你们都没必要发展了),后来谷歌发现这牛皮吹得有点大,又出来谦虚了一番。

谷歌72量子比特量子计算机—bristlecone,它长这样

咱们就看个热闹就行了,这东西太玄乎了;年在美国的加州还有人首次发现,人脑认知也可能是一种量子效应,嗯,咱们的人脑也是一台量子计算机!

现阶段来说,美国在专用量子计算机领域进行研究还是挺不错的,谷歌、IBM、英特尔属于第一梯队,后面跟着的是亚马逊、高盛、微软、惠普第二梯队,甚至后面还有CIA跟跑。

相对国外,国内就冷清多了,目前除了国家在这个领域投钱,后面就只有阿里投资的“阿里巴巴量子计算联合实验室”,年还在线上实现了11量子比特超导量子计算服务的云平台。

这就是目前专用量子计算机的发展概况。

通用量子计算机

而真正能改变世界的通用量子计算机的发展情况却举步维艰,前程不是一般的远大,发展的步伐却寸步未移。

年,中国的郭光灿院士团队在半导体量子芯片上面获得了突破,在国际上首次实现了半导体体系中的3量子比特逻辑门操控,这为未来研发集成化半导体量子芯片打下了基础;嗯,逻辑门操控属于通用量子计算机的重点。

目前在我国,民间公认的“中国量子之父”是潘建伟教授;而我们持有官方认证“中国量子之父”却是郭光灿院士,这个恐怕没有几个认识把,他是中国量子技术的开创者和奠基人,宝座的是妥妥的。而我们的潘建伟教授是郭光灿院士从奥地利挖回来的。

郭光灿院士在理论方面的研究也是相当的权威,他提出的“利用光腔制备两原子交缠的方案”,被法国的科学家哈罗实验验证了,后者也获得了诺贝尔物理学奖。在中国最有可能获得诺贝尔物理学奖的名单上,郭光灿院士是热门的人选。

现在,就让我们把目光聚焦在未来的你身上把,说不定成功研究出通用量子计算机的就是屏幕前的你呢。

分享 转发
TOP
发新话题 回复该主题