计算系统在过去几十年中推动了计算机科学的发展,现在已成为企业世界的核心,提供基于云计算、雾计算、边缘计算、无服务器计算和量子计算的服务。现代计算系统解决了现实世界中许多需要低延迟和低响应时间的问题。这有助于全球各地的青年才俊创办初创企业,利用大计算能力解决具有挑战性的问题,加快科学进步。
近年来,人工智能(AI)、机器学习(ML)和深度学习(DL)越来越受欢迎,因为它们在计算机视觉、自然语言处理和其他相关应用领域率先提高了准确性。为了训练这些模型,前几年收集了大量数据,此外,图形处理器(GPU)、谷歌的张量处理单元(TPU)和人工智能特斯拉的道场处理单元(DPU)等最先进的计算硬件也得到了发展。这意味着双方都能从中获益。许多人工智能/ML/DL 技术都需要大规模的计算能力和外部数据源,而这些通过计算系统可能更容易获得。现在,训练复杂的人工智能、ML 和 DL 模型的方法可以并行、大量地实施,这一点尤为重要。为此,可以预见的是,对人工智能/ML/DL 应用的持续兴趣将推动对包括虚拟机调配、整合和负载平衡在内的成熟数据中心资源管理问题的新研究,同时也会使应对扩展挑战变得更加容易;这可能会为人工智能在现代计算机系统中的更广泛应用铺平道路。
人工智能和 ML 在未来几年将为计算系统带来重要的必要需求,从大规模异构物联网和传感器网络产生的极其庞大的数据流的存储、维护和研究,到 Qos 感知(延迟、能耗、成本、响应时间)的定制计算服务,这些服务既要适应一系列硬件设备,又要最大限度地满足包括软件级 Qos 约束和财务约束在内的多重标准。下一代/未来计算可以借助人工智能/ML 技术来建立,这些技术可以快速、有效地处理这些问题。
在这篇文章中,我们总结了云计算、人工智能/ML和量子计算领域的领先学者、研究人员、从业人员、工程师和科学家共同讨论的相关领域的当前研究和潜在的未来方向。
新兴计算模式
集成下一代计算的周期
云计算的兴起与人工智能的兴起相辅相成,这一点越来越明显。因此,在云中使用人工智能可以提高云的性能、效率和数字化转型。云计算环境中的人工智能是使组织变得更加智能、更具战略性和更有洞察力的关键所在,同时还能提供更高的灵活性、敏捷性和成本节约。
人工智能和云计算可以通过多种方式结合起来,以增强云计算的功能。人工智能工具和软件与云计算的强大功能同步,从而为现有的云计算环境提供更高的价值。这种结合使企业变得更加智慧、更具战略性和洞察力;云上托管的数据和应用程序使企业的反应速度和适应能力更强,同时也为整个公司节省了成本。
由于增加了人工智能层,有助于从数据中产生洞察力,现有能力获得了智能化,客户也获得了极佳的体验。因此,企业可以从一个非常独特的组合中获益。云就像一个电子游戏,会发出大量的运行数据和遥测数据,就像特斯拉电动汽车一样。因此,基于人工智能的云计算基本上就是人工智能运营,它使用算法来理解所有这些数据,而不是依赖人类。
在新冠之后,2020年第一季度的云计算投资比2019年第一季度增长37%,达到290亿美元;整合人工智能和云计算可以帮助企业更贴近消费者,同时提高运营效率。
云计算环境和解决方案正在帮助企业变得更加灵活、适应性更强、成本效益更高,因为这大大降低了企业的基础设施管理费用。人工智能可以处理庞大的数据存储库、简化数据、改进工作流程,并为日常运营提供实时见解,从而为企业带来更多自由。运营的重担可能会从流程和人员转移到工程和数据上。这就是为什么人工智能正以各种方式促进云计算的发展。软件即服务(saas)模式目前正被用于成功应用基于云的人工智能。saas 公司正在将人工智能融入其解决方案,从而为客户和最终用户提供更强的能力。企业采用人工智能增强现有云基础设施的另一种方法是将人工智能作为一种服务:人工智能的使用使应用程序更具可读性和智能性,减少了错误、提高了产量。
云计算衍生出的云原生范式将传统的单体云应用转变为轻量级、松耦合和内粒度的微服务。这种模式可以支持应用程序以更加节约的方式进行更新。然而,由于微服务的数量增加且具有时间敏感性,对其进行高效管理可能具有挑战性。基于人工智能/ML 的解决方案可以应对部分挑战,例如,基于神经网络的方法可用于预测微服务的工作负载,基于 ML 的技术可用于分析微服务的依赖性。
以下是在云中部署人工智能的各种优势:
- 增强数据管理:在当今数据驱动的世界中,数据是王道,因此需要更好的方法来处理数据。企业跟踪数据的能力是一大障碍。基于云的人工智能工具和应用程序可识别、更新、编目并向客户提供实时数据见解。人工智能技术还可用于检测欺诈活动和识别异常系统趋势。在当今高风险的环境下,银行和其他金融机构要保持竞争力和安全,在很大程度上要依赖这项技术。
- 自动化:由于人工智能和云技术的结合,智能自动化现在可以在整个业务中实现,从而消除了障碍。人工智能提高了预测能力,因为算法模型利用历史数据和其他模式提供即时见解。人工智能和云计算解决方案可以帮助企业实现从半结构化文件到非结构化文件的认知自动化,同时还能推动有效基础设施管理的发展,从而减少停机时间和影响。因此,业务成本发生了变化,客户体验也发生了变化。
- 节约成本:云计算使企业只需为其使用的资源付费。与建设和维护大规模数据中心的典型基础设施支出相比,这可以节省大量资金。节省下来的资金可用于构建更具战略性的人工智能工具和加速器,然后用于增加收入,并从根本上为公司节省资金。这将带来更好的运营质量和更低的成本。
当这两种技术相结合时,也可能会出现以下问题:
- 集成:要实现两种不同技术的无缝集成绝非易事。为了实现整合,公司必须首先将所有应用程序和技术转移到云中。这对许多公司来说并非易事。
- 数据不足:拥有高质量数据的大型数据集是人工智能技术的理想选择。企业必须确保其数据既可访问又干净整洁,这样人工智能才能发挥作用。但由于数据往往是无序的或缺失的,这是一个很大的难题;解决方案的价值必须来自高质量的数据。
- 安全和隐私问题:为防止数据外泄,企业必须提高警惕,保护敏感信息和财务信息不被对手窃取,因为对手很可能会将这些信息作为攻击目标。
要想让人工智能与云同步,企业就必须投入大量的知识、资源和资金。只有当云计算和人工智能系统适当整合时,企业才能利用各种强大的机器学习能力,如图像识别和自然语言处理。因此,未来会有更多企业效仿。企业需要人工智能云,以跟上云计算的快速发展。在成功实施后,人工智能操作最终将成为云管理的标准方法。
如今,云已经是一项强大的技术,但科学家们认为人工智能将使其更加强大。有了这种结合,数据分析和管理将发生根本性的转变。人工智能与云的结合将改变游戏规则,并将在这个充斥着海量数据的世界中为终端用户带来无与伦比的价值。现在,云计算和人工智能的应用范围更加广泛,它们正在全球各行各业掀起轩然大波;显然,人工智能有望帮助公司应对新的、更明显的挑战,并为其潜在客户开辟一片新天地。
雾计算的建立是为了补充云计算服务,因为物联网的使用越来越多,而且有必要处理和存储产生的海量数据。对反应时间要求极低的物联网应用可由提供基本网络服务的雾计算来支持。
由于雾的分散性、异构性和资源限制性,要在雾节点内有效地分配物联网应用活动以满足 Qos 和体验质量(QoE)限制是非常困难的。车对物(v2x)、健康监测和工业自动化采用雾计算,因为它能提供靠近用户的计算能力,以满足这些应用对反应时间的期望。因此,这些应用从物联网设备的广泛使用中获取了大量信息。
由于长距离数据传输延迟和网络拥塞,云计算无法满足延迟要求。它在数据源和云计算中心之间提供了一个由网关、路由器和计算节点组成的网络。由于低延迟、低能耗以及减少了数据传输所需的带宽,雾计算扩展了云计算。雾节点可用于处理敏感数据,而不是将其发送到云端,从而提高了安全性。利用各种物联网设备生成的数据,这些应用旨在提供有用信息,同时解决延迟问题。
近年来,研究人员越来越多地转向人工智能,以帮助他们分析大量数据,实现上述用途。人工智能的机器学习(ML)和深度学习(DL)子领域提供了有用的数据洞察力和决策帮助。
对于物联网来说,5G 不仅仅意味着一个无线创新的新时代。从数据中心到网络边缘,超过万亿个传感器、小工具和机器都由人工智能驱动并自主运行。就加快数据分析和决策制定而言,雾计算和边缘计算是两项最佳技术。许多 “雾设备”将联网并共用位置,作为分布式计算系统的一部分,即雾计算。边缘管理、数据收集、监控、分析和流式传输都是在网络边缘的雾计算节点上进行的。虽然雾计算能够连接数量有限的设备,但该技术在处理实时请求和汇总来自更多来源的数据方面的能力要强得多。
自亚马逊云计算于 2006 年推出以来,我们只需按一下按钮,就能访问各种类型的资源,拥有可扩展的架构,并在任何地方使用这些资源。思科在 2008 年宣称,物联网是将从云计算中受益的技术之一,但其根源可追溯到 1999 年。例如,我们可以保存传感器数据并对其采取行动,使用人工智能实现流程自动化,并对以前需要直接参与的情况做出实时反应。物联网刚推出时,它承诺将扩展到专业和个人领域,而且必须改变传感器化和通信协议以满足这些新需求。传感器数据的整合和人工智能的应用催生了新的模式。
在更广泛的范围内,“智能城市”一词被用来描述城市,而 “智能工厂”则被用来描述制造和加工设施。它们的一个共同点是利用数据和自动化决策与自动化相结合,而这可以通过人工智能和 ML 技术轻松实现。
例如,改变计算机或铁路的配置,为自动驾驶汽车踩刹车,或发出预防性维护警告。从这些例子中可以看出,决策和行动不能在云端完成,而是要在更接近收集数据的传感器的设备上进行。
关于应用部署的研究已经在工业和制造业等多个领域展开,但仍有许多问题需要解决:
- 执行时间:对于服务提供商和客户来说,时间都是最紧迫的问题。将软件置于雾中的主要动机之一是加快用户的反应时间。在应用安置问题上,应用了深度学习算法类的时间性能指标优化技术。如果我们使用不同的机器学习算法和进化算法或新型组合技术,或许能取得更好的结果。
- 移动感知:我们需要能够处理各种移动活动的迁移方法和架构。
- 资源调度:在像雾这样的动态环境中管理资源是一个问题,因为这种环境的资源量有限,用户的反应时间很短。在资源共享方面,雾环境比云环境的可变性更差。因此,仍然必须解决资源利用率低的问题。资源分配是基于对现有研究的调查以及对神经网络、支持向量机和 k-近邻(KNN)的使用。
- 能源效率:如果改进供应策略和算法,闲置的雾节点可能会被关闭,由于应用模块位于分散的雾节点中,因此可以结合 Qos 和 QoE 避免能源消耗。能耗和成本受内存、CPu 和带宽使用的影响,可通过 K-means、KNNs、逻辑回归、分支与边界、深度 Q 网络 (DQN) 和 sARsA 等机器学习方法进行预测。
- 安全和隐私:由于存在信息退化、身份泄露、重放和拒绝服务攻击等安全问题,雾基础设施对于确定应用程序的安全性至关重要。由于用户对自己的信息缺乏控制,因此需要在动态计算环境中实施身份验证、加密和数据整合。
- 容错性和可用性:开发雾计算的主要原因之一是提高可靠性。在雾计算中,传感器故障、特定区域或整个网络缺乏接入网络覆盖、服务平台故障以及用户界面系统连接中断等问题都是等式的一部分。雾环境中的另一个挑战是提高应用程序的可用性。提高服务可用性和 Qosisto 的启发式方法是将应用程序映射到雾社区,然后根据服务放置问题将其服务临时放到雾设备、社区上。
图像、视频、自然语言处理(NLP)和机器人技术是最近才开始出现的雾计算应用。雾计算的图片放置和处理是人工智能在研究和行业中应用最广泛的领域之一,其目标是将物体或人物彼此区分开来,并能根据图像处理算法对照片进行分类和鉴别。在基于图像处理的应用中使用雾计算可缩短响应时间并改善服务质量。在与要求图像处理精度和快速处理医疗数据的医疗应用相关的情况下,使用有效的调度算法在雾环境中进行部署可能是有益的。根据文献,深度学习算法,如卷积神经网络(CNN)和生成对抗网络(GAN),可用于雾中的图像处理领域。
该领域另一个值得关注的领域是 NLP 。声音处理和识别需要云和雾环境来存储数据。出于安全考虑,具有声音模仿功能的深度学习方法可能很有用。例如,在智能家居的应用场景中,处理和识别房主与外人的对话应谨慎而迅速,因此将提出在雾中放置 NLP 应用的有效调度方法。深度学习领域的技术在这方面可能会有所帮助。工业、贸易、农业和健康领域都能从机器人技术中受益匪浅,因此机器人技术是一个值得讨论的重要问题。在必须快速做出判断的情况下,使用采用机器学习处理和决策的雾环境可能是可以接受的。为了让机器人进行数据交流,它们需要一个能快速响应其指令的雾环境。物联网将每个机器人定义为能够与其他物联网事物和其他机器人互动的物品 。
因此,科学家们可以利用人工智能提高 Qos 和 QoE。
分布式计算已从内容交付网络发展成为一种普遍接受和常用的边缘计算模式,它使处理和数据存储更接近终端用户的位置。由用户创建且仅为用户创建的即时数据需要边缘计算和存储,但大数据始终需要基于云的存储。随着客户在移动设备上花费的时间越来越多,企业认识到他们需要将关键计算转移到设备上,以便为更多客户提供服务。
边缘计算市场因此迎来了发展机遇。到 2023 年,预计市场规模将达到 1.12 万亿美元。根据 Gartner 的数据, 2022 年74% 的数据将需要在边缘处理,而目前 91% 的数据是在集中式系统中处理的。
客户更加关注自己的隐私,并希望知道他们的数据是如何以及在哪里获取和维护的。在完成应用程序的认证程序后,许多企业通过提供具有人工智能定制功能的应用程序来服务客户。客户通常会使用扬声器、手机、平板电脑和机器人访问支持人工智能的小工具。由于数据的敏感性和个人性质,需要多级加密和动态加密过程。边缘节点有助于构建高度分布式架构,并帮助为每台设备建立适当的安全策略。由于服务分散在网络和设备两个层面,因此在跨网络和设备发送数据时存在延迟问题。由于这种延迟,工作必须在网络上完成。当应用程序必须具有端到端弹性和广泛分布的架构时,就需要多个负载平衡端点。数据计算服务更接近移动设备或边缘(被称为“云小站”),从而提高了设备级的弹性。
我们必须思考,如何利用人工智能克服这些挑战?
边缘计算是人工智能的主要推动力,它能以低成本提供高质量的性能。这是理解人工智能与边缘计算之间联系的最佳方式。我们可以从人工智能与尖端计算机的结合中获益。由于人工智能的数据和计算密集特性,边缘计算有助于人工智能应用克服人工智能应用的技术问题。人工智能和机器学习系统需要吸收大量数据才能发现模式并提供可靠的建议。在需要进行视频分析的人工智能使用案例中,基于云的高清视频数据流会导致延迟问题和成本增加,因为需要使用巨大的带宽。当人工智能触发、决策和行动必须实时进行时,延迟和对云中中央处理的依赖是不利的。处理和决策可以在数据源进行,这意味着可以在边缘采取行动,避免回程费用,使边缘成为数据处理的理想地点。将数据流传输到云端只包括最重要的信息和数据集,而将其余数据留在云端。
由于边缘计算网络的分散性和复杂性,在基础设施管理方面带来了一些问题。为了有效管理资源,必须完成一系列活动。这些活动包括工作负载估计、任务调度以及虚拟机整合、资源优化和节能。在动态、快速变化的环境和实时场景中,传统的预设规则(主要基于运筹学方法)过去一直被用于资源管理。基于人工智能的技术正被越来越多地用于解决这些问题,尤其是在必须做出决策时。近年来,包括人工智能、ML 和 DL 在内的各种方法已得到广泛应用。为了进一步提高用户的移动性,高速缓存必须能够预测用户的去向。为了减少开支和能耗,缓存应位于适当的边缘服务器上。强化学习、神经网络模型和遗传算法是其中的一些方法。
在商业和工业领域,边缘技术的优势已迅速传播开来,特别是减少了 IT 设备在云和网络带宽上不断增长的开支。公司的所有活动都在世界各地进行。尽管云和大数据中心的数据量巨大,但估计只有 1%的监控数据与异常识别或未来事件预测等业务洞察相关。边缘通过本地处理、分析和本地设备提供高质量的业务服务。这就是边缘的运行效率和意义所在,因为它可以避免向云/数据中心传输数 TB 的不必要数据,而只向终端用户传送相关的可操作数据。边缘计算能力的创新应用层出不穷。边缘计算在向分散网络的“最后一英里”迁移方面仍然存在问题,但工业应用中的新用例显示出与人工智能的紧密融合,特别是为企业带来巨大价值。在汽车、建筑、加工和制造行业,增强现实、虚拟现实和混合现实正变得越来越流行。这就需要一个可扩展、适应性强、快速响应且始终可用的计算基础设施。在边缘计算中,人工智能和机器学习有大量用途。智能零售、联络中心、安全和法律助理都能从 NLP 的能力中获益,如解析人声、识别笔迹和对文本进行分类等。
与云、雾或无服务器计算相比,边缘计算环境的问题明显不同。因此,边缘环境受到可扩展性和性能相关问题的困扰,尤其是在处理关键任务数据和应用时。考虑到规模问题,要跟踪每个 IT 组件的健康状况和状态是非常困难的,尤其是当有如此多的远程边缘位置需要跟踪时,更不用说可视化和分析它们对其他链接设备的影响了。高度分散和多样化的网络边缘设置。由于基础设施各组成部分的性质各不相同,而且获取所需的各种技能和资源的成本很高,这就形成了“边缘孤岛”,使问题变得更加复杂。要处理极其分散和异构的边缘环境,基于人工智能的智能软件至关重要。通过自动安全和响应,还可以在客户不参与的情况下保障整个客户的安全。
此外,消费者和云/数据中心等端点之间的实时性能管理也是一个关键问题。所有站点的端到端视图和数据存储库都由持续监控性能指标和低数据量的技术工具提供支持。对于边缘设备发生故障或不可用的情况,边缘基础设施具有内置冗余,可隔离、修复和维持可接受的运行水平。如果运行的边缘数据中心有多个团队负责基础设施的不同部分,将会遇到某些不确定性。在这种情况下,以人工智能为基础的高级关联和分析非常有用,可以检查、整合和统一来自多个来源的数据,将数据转化为信息,并将信息传达给团队中的相关角色。提供的信息可用于帮助自动化流程。
现在,包括spacex和亚马逊在内的私营公司正在建造低地轨道(LEO)卫星,以提供全球宽带互联网接入。随着低地球轨道卫星接入网络用户的增加,确定边缘计算原则是否可以以及如何在低地球轨道卫星网络中实施至关重要。
现代计算系统将边缘设备作为数据中心的组成部分,因此需要创建基于物联网的特定应用程序,以提供更多加密传输并保护数据隐私。我们可以从以下方面提高边缘计算的相关能力:
- 由于物联网边缘设备的资源限制,它们无法运行为台式电脑构建的强大安全软件和防火墙,因此必须使用区块链技术,利用人工智能/ML 增强安全性。此外,创新的软件架构,如促进物联网设备修补和维护的软件架构,可以通过利用人工智能和 ML 得到进一步加强。
- 基于人工智能/ML 的自动决策,而不是人类编码的启发式方法,为通过工程速度和效率优化拥有海量数据的边缘系统提供了一条有利可图的道路。
- 需要基于人工智能的大数据分析方法,以便在运行时处理物联网应用中的边缘设备数据。
在设计云原生应用程序时,无服务器计算正变得越来越流行。
无服务器计算是一种云计算范式,它抽象了操作方面的管理。由于开发人员不再需要担心基础设施的维护问题,无服务器计算可能会以相当快的速度扩展。正因为如此,云服务提供商可以利用无服务器计算更轻松地管理基础设施和自动配置。基础设施管理所需的时间和资源也会因此减少。
因为人工智能是技术的未来,所以所有平台都在拥抱人工智能。另一方面,无服务器设计可以解决开发人员遇到的大部分问题。使用无服务器架构,机器学习模型可以得到妥善处理,资源也能得到有效管理。由于采用了这种设计,开发人员可以将更多的时间和资源用于人工智能模型的训练,而不是服务器基础设施的管理。
复杂的挑战通常需要开发机器学习系统。这些系统需要分析和预处理数据、训练模型和调整人工智能模型等。因此,应用程序接口应能顺利运行。应使用无服务器计算和人工智能来确保数据存储和信息传递不中断。无服务器架构提供了多种选择和优势,机器学习模型可从中受益匪浅。当收到任何数量的请求时,基础设施提供商都会准确分配自己的计算执行能力。
AI/ML 集成无服务器架构具有以下优点:
- 公平定价:无服务器设计使基于执行的定价成为可能,因此您只需为真正使用的服务付费。因此,定价模式更具可读性,成本显著降低。
- 独立工作:无服务器计算使开发团队能够在很少干预和延迟的情况下自主运行。因此,模型被视为不同的功能。调用该功能不会影响系统的其他部分,并且可以随时进行调用。
- 自动缩放:使用自动缩放功能时,不再需要存储预测,因为开发人员可以随时进行更改。
- 按使用付费:使用一种名为“按使用付费”的新模式,客户只需在真正使用资源时付费。无服务器计算不是按服务器数量付费,而是按服务使用付费。结合无服务器的“零扩展”特性,用户只需按执行次数和资源使用时长付费。
- 无忧的服务器管理:无服务器计算提供的后端服务只有在需要时才能访问,从而将用户从管理服务器的负担中解放出来。有了无服务器后端,如果服务提供商想增加或减少预留或付费的带宽,就不必修改设置。在互联网出现之前,网络开发人员要拥有运行服务器所需的硬件既困难又昂贵。
- 高可用性:无服务器方案因其内置的可用性和容错性而越来越受欢迎。因此,无需构建可为应用程序提供这些功能的服务,因为它们一直都是可用的。
量子计算有望成为一项有可能从根本上改变人工智能的技术。随着人工智能在全球范围内产生巨大影响,与量子计算的结合可能会产生倍增效应,引发人工智能的革命性影响。
量子计算采用了一种新颖的数据和信息处理方法:在量子系统的量子态中编码的信息会根据量子力学定律进行处理,从而带来一些经典信息处理方式所不具备的机会。例如,量子叠加和量子纠缠。量子纠缠是量子系统的一种特性,它限制了观察者可能获得的全局量子态部分信息量,使得仅凭对部分状态的了解无法提供完整的描述。
量子系统的上述特征从一个侧面激发了量子计算的威力(如果能有效屏蔽与环境的相互作用),但同时也是主要的限制因素,使得目前的计算机系统无法对量子系统进行科学模拟,即使是人工智能超级计算机也不例外。事实上,复合量子系统演化的相空间规模会随着组成系统的数量呈指数增长。
量子计算机使用的信息单位是量子比特,它取代了经典计算机中使用的比特。量子比特Ψ的状态可以是原子、光子、电路等,在数学上可以表示为复数希尔伯特空间中的一个矢量。
量子系统的模拟一直是建造量子计算机的最初动力,但直到发现了能够实现实际目标的量子算法后,人们才开始越来越关注建造这种设备。在正式提出量子计算机概念的开创性工作之后,又有几种算法可以实现经典计算机难以完成的任务。shor算法的发现为大数因式分解提供了一种简便的解决方案,对密码分析具有重要意义,推动了量子计算和量子密码学的研究。然而,要在工作的量子硬件上有效运行 shor 算法,需要在实现寄存器初始化、多个量子比特上的量子操作和量子态存储方面达到一定的精度,而目前最先进的设备尚未达到这一水平。
值得一提的是,量子计算机也有自身的局限性。例如,预计量子计算机无法有效解决 NP 难度的优化问题,而在搜索方面,量子计算机所带来的速度提升与经典计算机所需的时间(grover算法)呈二次方关系。
事实上,建造量子计算机并非易事:实验人员都很清楚,量子计算由量子叠加和纠缠等特性带来的优势,往往会随着硬件的大小和复杂程度(即所涉及的量子系统数量)的增加而以指数级的速度消失。尽管如此,近年来,主要高科技公司(IBM、微软、谷歌、亚马逊、英特尔、霍尼韦尔)对量子计算的兴趣与日俱增,许多年轻公司也纷纷提出量子计算解决方案,并采用了各种核心技术,包括超导设备、捕获离子和集成光路。这些只是目前正在资助量子计划并有意开发这项技术的众多公司中的一部分。
然而,正如前文所述,要保持复合量子态的微妙特性,所面临的挑战取决于能否将这些器件与外部环境隔绝开来,以便在即使是极小量噪声的情况下也能实现相干量子演化。因此,这些器件需要零点几开尔文的超低温,这也给设计能够在如此低温下良好运行的适当材料带来了挑战。
虽然通用量子计算机仍是量子计算的长期挑战,但含噪声的中尺度量子(NISQ)器件是未来几年可预见的目标。物理学家可以利用这类器件开始有效地模拟复杂的复合量子系统,并研究物理实验室尚未接触到的奇异量子态。
下一步,NISQ 设备一旦可靠并得到充分发展,我们就需要用有效的量子纠错(QEC)电路来支持主计算单元,从而克服计算过程中存在的噪声所带来的限制。这可能会为容错量子计算开辟道路——而容错量子计算需要涉及成千上万甚至更多的量子比特。事实上,QEC需要大量的量子比特和逻辑门来实现。虽然研究重点是提高量子设备的性能和优化量子运算,但许多企业家也对生产量子软件解决方案感兴趣。因此,预计许多投资者将投资于围绕量子计算技术的初创公司,从这个角度看,人们对量子计算的兴趣可能会增加。
医药投资者对量子计算的兴趣已经燃起。许多行业都可以从量子计算机和商业解决方案中受益:金融业、医疗保健、遗传学、药理学、交通运输、可持续发展和网络安全都是量子计算的直接受益者。量子计算的潜力已被银行业所认识。金融分析师经常使用量子计算模型,这些模型包含了市场和投资组合运作的概率和假设。为此,量子计算机可以更快地处理数据,运行更好的前瞻性模型,并更准确地平衡共轭期权。它们还可以帮助解决复杂的优化问题,如投资组合风险优化和欺诈检测。
根据 IBM 公布的一项研究,该公司云计算平台中的量子算法优于经典的蒙特卡罗模拟;量子解决方案在医疗保健领域大有可为;量子计算可以更快地进行基因组分析,为每位患者制定个性化的治疗策略,从而改进个性化医疗方法 。基因研究会产生大量数据。因此,分析 DNA 信息需要大量的处理能力。目前,一些公司正在降低人类基因组测序所需的成本和资源;但是,一台强大的量子计算机可能会大大加快筛选数据的速度,从而使基因组测序变得更加经济和可扩展。
量子计算可能使药物开发受益的另一个领域是蛋白质折叠。这可能有助于加快药物发现工作,使预测药理化合物的影响变得更容易。
公钥密码系统是当今通信的基础。Rivest-shamir-Adleman(RSA)加密实际上是确保网络数据传输安全的最常用密码系统,其工作机制和安全性要求对大质数进行因式分解,这超出了当前经典计算的能力极限。然而,如上所述,利用shor因式分解算法的量子计算能力可能会使这种加密模型过时。因此,在过去几十年中,为在量子计算时代建立安全的密码系统而进行的研究和投资不断增加,而且对未来几年的预测显示,这种兴趣还将增长,例如,东芝公司的量子密码学收入目标是到 2030 年达到 30 亿美元。与此同时,在努力设计和实施有效的量子密钥分发(QKD)协议的同时,美国国家标准与技术研究院(NIST)也发布了关于后量子加密标准的建议:它已开始申请、评估和标准化一种或多种可抵御量子硬件窃听的公钥加密算法。
还有人提出将量子计算机应用于环境领域,希望量子计算能为应对气候危机开辟新的途径,识别和优化有助于应对全球变暖和其他气候变化影响的过程。
量子人工智能图示
在管理大量数据方面,量子计算比经典计算更有效。量子算法是在量子计算的现实模型上执行的数学算法;量子计算电路是最常用的模型。量子计算系统的状态可视为支持特定实现的物理量子态中编码的信息。量子信息论基于这些基本对象:量子比特(信息单位)、量子门(对量子比特进行操作的设备),以及连接门和电路以保持量子叠加和纠缠的量子通道。量子计算机能够处理的数据量是传统计算机的数倍,因为它们本质上包含并管理着复合量子系统的张量乘积结构。
要为量子优势的发展提供一个可预见的未来,并准确地知道我们将如何以及何时获得量子优势的完整而深入的应用,仍然是一件非常困难的事情;但我们有理由说,量子计算的指数级加速将涉及所有需要管理大量数据的问题,如模式识别或机器学习模型的训练。
机器学习模型的训练,就像强化学习一样,其有效性在很大程度上取决于代理与环境互动的学习速度:它们进行互动,获得一些反馈,然后根据收到的反馈调整(学习)自己的行为。
生物识别和自动驾驶是可以利用 QAI 处理工作负载的两个重要实例。量子计算机可以在比传统计算机更短的时间内处理更多数据,这一事实揭示了 QAI 的概念。QAI 涉及量子计算与人工智能的结合,以实现比经典人工智能更优越的性能。强化学习(RL)是人工智能的一个成熟分支,其目的是通过代理的试错使奖励最大化;可以肯定的是,将强化学习与量子计算相结合将带来计算系统的巨大进步。随着量子计算机加速机器学习,其潜在影响必将是巨大的。
量子计算快速执行任务的能力可能有助于人工智能系统的应用,例如在与自动驾驶有关的问题、自然语言处理(NLP)算法,以及在传统方法极其耗时和昂贵的任务中。实现“意义感知”是量子算法的一个目标。为了建立实时语音模式,这些算法可以使用短语和段落。值得注意的是,预测分析是人工智能的关键应用和商业用例。海量数据可用来训练擅长机器学习和深度学习的人工智能系统。然而,股票市场预测和气候变化控制系统等复杂而模糊的问题需要利用纠缠和叠加的量子原理创建独特的数据。
用于量子计算机的人工智能算法或量子人工智能(QAI)的新发现有望带来推动气候变化科学发展所需的关键突破。预计这项研究在天气和气候预测方面的改进将对广泛的社会经济优势产生连带影响。例如,美国国家航空航天局(NASA)建立了量子人工智能实验室(QuAIL),致力于研究在 NASA 任务中使用量子计算机和算法解决机器学习问题的可能性。
由于量子计算的存在,纳米技术和纳米科学也可能被整合到人工智能中,用于分子、原子和亚原子级别的超小型微观设备。量子物理学在纳米技术中的应用。
量子设备的机器学习应用已经在开发中,希望利用量子计算加快机器学习模型的训练,并产生更科学的学习算法。即使在全面的量子计算解决方案准备就绪之前,机器学习和人工智能也可能从量子计算技术的改进中受益。因此,预计量子机器学习(QML)领域将逐渐兴起,紧随其后的是自适应量子机器学习(Adaptive Quantum Machine Learning),它将能够利用量子计算自适应地实现自我学习。
尽管量子计算目前仍处于起步阶段,但从商业和经济角度来看,现在正是初创企业加入这条道路的绝佳时机。我们经济的未来不是由加密货币决定的,而是由量子计算解决方案决定的。