成为拥有核心技术的半导体元器件供应商和解决方案商
电话咨询(微信同号): +86 18926567115

新闻资讯

知识专栏

人工智能与量子计算交汇的现实图景

作者: 浮思特科技2026-02-28 15:04:27

纵观科技进步史,突破性成果极少是孤立事件。它们往往诞生于特定叙事之中 —— 扎根于市场与制度,将特定技术塑造为不仅值得追求、更是无可避免的存在。这种认知立场常与技术决定论挂钩,该术语由美国社会经济学家索尔斯坦・凡勃伦提出。

20 世纪中期电子计算机问世时,它还只是小众工具,伴随诸多夸大宣传。历经数十年社会与技术的渐进式变革,才演变成如今我们熟知的通用平台。

人工智能(AI)与量子计算(QC)长期作为独立技术发展:前者旨在通过深度数据分析复刻人类部分认知过程,后者则借助物理学中反直觉的原理作为计算资源。数十年来,二者分道而行,如今却走向交汇。

当 AI 逼近经典硬件的物理极限、给全球能源系统带来重压时,量子计算愈发被视作下一个前沿阵地,成为 AI 潜在的 “破局者”。

AI 与量子系统能够相互赋能的观点,已成为极具影响力的叙事。但以史为鉴,我们必须保持谨慎:当预期经济的增速远超硬件发展时,率先膨胀的往往是泡沫,或是随之而来的破灭。

官网插图模版_100%.jpg

两种截然不同的预期经济

AI 的发展是公开、可观测且高度商业化的:从影响用户选择的推荐系统,快速迭代至大规模语言模型。每一次 AI 突破都会触发近乎即时的正向反馈 —— 应用落地带来营收,进而支撑新一轮投资。

与之相反,量子计算长期在实验室闭门发展,其晦涩的成果大多只有专业人士能理解。历史上,它的发展更多由政府与学术界驱动,而非企业财报。

两种不同的预期经济,塑造了二者截然不同的定位:

AI 成为商业巨头;

量子计算仍停留在愿景阶段。

这份愿景自带强大吸引力,尤其当下 AI 的指数级增长,正撞上经典计算架构的物理硬天花板。

来自 “AI 寒冬” 的教训

AI 的发展史,可为我们警惕对量子计算的过度狂热提供警示。

20 世纪 70 年代与 80 年代末,AI 两度陷入停滞,史称AI 寒冬。其根源并非理论研究不足,而是预期与现有硬件严重脱节。早期系统曾承诺在机器翻译、自动推理(逻辑推演、定理证明、问题求解)等领域快速突破,却遭遇词汇歧义、组合复杂度等难题,而当时的计算平台无力应对。

当实验无法落地为可行系统,投资锐减,研究近乎停滞。

如今,量子计算被普遍视为支撑 AI 持续增长的下一代硬件。但如果量子平台依旧存在噪声大、稳定性差、易出错等问题,而预期持续飙升,该领域可能重蹈覆辙。若技术能力、时间线与应用成熟度无法精准匹配,量子计算也可能面临漫长的收缩期 ——量子寒冬。

无可避免的交汇?

文化层面的必然

当下 AI 的繁荣,依赖于模型、数据集与能耗的持续扩容。但随着效率提升愈发边际化,“下一步该走向何方” 的问题愈发紧迫。

量子计算给出了极具诱惑力的答案,并非因为它已成熟可用,而是它指向一种被视为颠覆性的计算形态。

这种交汇,与其说是技术刚需,不如说是文化层面的必然:

AI 需要摆脱蛮力计算,走向可持续未来;

量子计算需要走出实验室,找到实际应用价值。

AI 与量子计算的交汇点

AI 与量子计算的融合,正以受限于量子硬件条件的精密工程形式落地。量子物理系统的非线性特性,使其在理念上与现代 AI 算法的高维模式识别能力、可扩展性高度契合。

AI 无法精准模拟大型量子系统,因为所需计算资源会随系统规模指数级增长。因此,AI 并非要取代量子硬件,而是作为模拟量子现象的辅助工具。

实际应用中,量子处理器会被选择性地用于机器学习任务中计算最密集的环节:

概率采样

组合优化

高维搜索

这些正是经典 GPU 加速器在扩展性、内存带宽与能耗上逐渐触及瓶颈的领域。

实际应用场景

如今的量子处理器并非独立加速器,而是嵌入在以经典计算为主的 AI 流程中。

变分量子线路(含可调参数)作为可调整的子程序在量子硬件上运行,而经典神经网络负责周边任务:

输入数据准备

线路参数调优

针对特定设备的程序编译

系统整体执行协调

这种分工,恰恰反映了当前量子硬件的短板:

量子比特数量有限

相干时间短

比特间连通性受限

低温维持、控制电路、错误校正等开销巨大

AI 已在弥补这些短板上发挥重要作用:机器学习模型用于校准控制脉冲(执行量子比特操作的精准微波或激光信号)、优化线路布局、减少量子门数量、让算法适配特定硬件拓扑。

同时,这些系统能学习错误特征(如环境干扰导致的测量数据统计规律),实时最小化退相干、串扰与读取噪声。

反过来,量子处理器作为实验性协处理器,借助量子算法突破经典方法难以处理的复杂数据集。这类混合架构已在物流、材料建模、医疗、大规模优化等领域落地。例如,量子模拟可用于为 AI 药物研发生成训练数据,或在数据量较少的情况下提升医学影像效果。

展望未来,二者能否实现完全共生,取决于量子系统从当前含噪声中等规模量子(NISQ)设备,向容错量子计算转型的速度。

难以为继的营收

多家媒体共识显示,2025 年 AI 初创公司融资约 1500 亿美元,投资者已开始为可能的市场调整做防御准备。

这笔历史性融资形成了巨额现金储备,用于抵御潜在市场动荡,投资者也已提醒头部企业未来环境将更严峻。

但大量资金注入并未转化为可持续营收。大型模型的训练与运行成本、能源需求持续攀升,长期盈利之路依旧坎坷。

颠覆性变革愿景与经济现实的脱节,印证了部分技术叙事的脆弱性。若企业仍在为市场下行拼命吸引风投,部分分析师认为这只是战术性防御姿态,而非经济活力持久的信号。

这一点与量子计算形成令人不安的对比:连深度融入日常生活、吸引空前资本的 AI,都难以用实际经济表现支撑其估值,那么那些最具影响力的应用仍停留在设想阶段的技术,又该如何自处?

量子计算:破灭、泡沫,还是重新定位?

传统意义上资产价格与内在价值脱钩的泡沫,不太可能发生在 AI 领域,更可能出现的是信心逐步消退。风险并非剧烈崩盘,而是因里程碑停滞、应用场景不切实际导致的缓慢衰退。

与此同时,量子计算植根于塑造 20 世纪的物理学基础,其底层研究依旧坚实。不确定性不在于原理上是否可行,而在于何时能实用、对谁有价值。

从 AI 与量子计算的交汇中汲取启示

利用这两大前沿技术的协同潜力,看似是自然演进。但二者的差异不容忽视:

AI 依赖已逼近物理极限的硅基先进工艺;

量子计算则是更异构的技术生态。

量子比特实现方案涵盖 CMOS 兼容硅工艺、中性原子、囚禁离子,乃至马约拉纳准粒子等更前沿的结构。

在这种背景下,真正的 “量子飞跃” 仍显遥远。量子系统的不确定性,叠加工程层面的重重挑战,可能会降温乐观情绪,抑制当前过热的投资狂热。