AIOT AIOT产品 边缘计算离辉煌并不遥远,海外巨头抢滩布局

边缘计算离辉煌并不遥远,海外巨头抢滩布局

广告位

边缘计算已在技术时代精神中占据一席之地,具备创新力和前沿性。几年来,人们一直认为边缘计算一定会成为未来的一种计算方式。但实际上,讨论仍然只是假设性的,因为支持边缘计算所需的基础设施仍然有很大的发展空间。

现在,随着各种边缘计算资源(从微数据中心到专用处理器,再到必要的软件抽象)涌入应用程序开发人员、企业家和大型企业手中,这种情况正在发生改变。现在回答有关边缘计算的实用性及其含义时,我们不必照本宣科。那么,现实世界的发展告诉了我们关于这一取视的什么?特别是,边缘计算的热度是否与其实际情况相符?

在本文中,我将概述当前边缘计算市场的情况。总的来说,边缘计算的趋势是真实存在的,由于成本和性能方面的原因,对应用程序进行分散化的需求不断增长。边缘计算的某些方面被大肆宣传,而另一方面则没有引起应有的注意。以下提出了4个要点旨在帮助决策者对边缘计算的当下和未来的功能有一个实际的了解。

1、边缘计算不仅仅是低延迟

边缘计算是一种使计算和数据存储更有效使用的范式。它与传统的云计算模型形成鲜明对比——传统的云计算模型中,计算只集中在少数几个超大规模的数据中心中。边缘可以位于比传统云数据中心更靠近最终用户或设备的任何地方,也许是100英里、1英里、本地或是设备上。无论采用哪种方法,传统的边缘计算叙事都强调边缘的功能是使延迟最小,以改善用户体验或启用对延迟敏感的新应用程序。这样的说法容易让人们对边缘计算的认识不够全面。尽管降低延迟是一个十分重要的用例,但它不一定是最有价值的用例。边缘计算的另一个用例是最大程度地减少往返于云的网络流量或是某些观点中的“云卸载”,这至少可能会带来与降低延迟一样多的经济价值。

云卸载的根本驱动因素是用户、设备或传感器所生成的数据量的巨大增长。“从根本上来说,边缘是一个数据问题”,Macrometa公司的CEO Chetan Venkatesh说道,这家初创公司正在应对边缘计算中的数据挑战。之所以出现云卸载,是因为迁移所有数据需要花费高额的费用,因此许多企业宁愿不将数据迁移到其他地方。此时,边缘计算提供了一种从本地设备中提取值的方法,因为它不需要将数据迁移到边缘之外。如有必要,还可以将数据精简为更为经济的子集,以发送到云进行存储或进一步分析。

云卸载一个十分经典的用例是处理视频或音频数据,这是最耗带宽的两种数据类型。据我最近接触到参与部署的人士透露到,一位在亚洲10000多个地点都有开店的零售商正在使用边缘计算技术同时对店内的视频监控和语言翻译服务进行处理。但除此之外,还有其他数据源传输到云中也同样昂贵。另一位联系人称,一家大型IT软件供应生正在分析来自客户本地IT架构的实时数据,以防止出现问题并优化性能。它使用边缘计算来避免将所有数据回传到AWS。此外,工业设备也会生成海量数据,因此也是云卸载的主要应用场景。

2、边缘计算是云的扩展

尽管早期的宣传口径是边缘会取代云,但更准确的说法应该是,边缘扩展了云的范围。它不会影响企业将业务迁移到云的趋势。但是,当前正在进行一系列措施,以将按需资源可用性和物理基础架构的云计算公式扩展到与传统云数据中心越来越远的位置。这些边缘位置将使用从云演变而来的工具和方法进行管理,并且随着边缘和云的不断发展,云和边缘之间的界限将变得模糊。

事实上,边缘和云是同一连续体的一部分,这一事实你可以从诸如AWS、Azure等公有云提供商的边缘计算计划中略窥一二。如果你的企业希望进行本地边缘计算,那么亚马逊会向你发送一个AWS Outpost,这是一个组装好的计算和存储架构,可以模仿亚马逊自己的数据中心的硬件设计。它会被安装在客户自己的数据中心中,并由亚马逊监控、维护和升级。重要的是,Outposts所运行的服务是许多AWS用户所依赖的,例如EC2计算服务,从而使边缘在操作上与云类似。还有其他许多大厂的产品也有类似的目标。从这些产品中,我们可以接收到一个明确的信号,即云提供商希望将云和边缘基础架构统一在一个保护伞下。

3、边缘基础架构正在分阶段实现

虽然某些应用程序最好在本地运行,但在许多情况下,应用程序所有者希望从边缘计算中受益,而不必支持任何本地占用空间。这就需要了解一种新型的基础架构,尽管该基础架构某些部分看起来像云,但是在地理上比当今构成云的几十个超大规模数据中心分布得更多。这类型得基础架构现在逐渐开始被应用,并且它可能会分为3个发展阶段,每个阶段都通过触达越来越广泛的地理区域来扩展边缘的范围。

阶段一:多区域和多云

关于边缘计算的第一步,许多人可能不考虑将边缘计算应用到大量应用程序中。此步骤是利用公有云提供商提供的多个区域。例如,AWS在22个地理区域设有数据中心,其中为北美和欧洲用户提供服务的AWS客户可以在北加利福尼亚州和法兰克福地区运行其应用程序。从一个区域到多个区域可以大大减少延迟,对于大量应用程序来说,这可以提供良好的用户体验。

与此同时,还有一个趋势是多云,这一趋势受一系列考虑因素的驱动,包括成本效率、降低风险、避免供应商锁定以及希望获得由不同提供商提供的同类中最佳的服务。“执行多云策略是当今非常重要的战略和架构”Mark Weiner对我说道,他是分布式云计算公司Volterra的CMO。与多区域方法一样,多云方法标志着云计算朝着分布式工作负载迈出了第一步,而分布式工作负载正朝着越来越分散的边缘计算方法发展。

阶段二:区域边缘计算

在边缘演进中的第二个阶段将边缘扩展到更深一层,边缘计算将利用数百或数千个位置的基础设施,而不是仅在几十个城市中的超大规模数据中心。事实证明,有一群玩家已经拥有这样的基础架构:内容分发网络(CDN)。20年来,CDN一直是参与边缘计算发展的先驱,它们将静态内容缓存到更接近最终用户的位置以提高性能。虽然AWS已经拥有22个区域,但是像Cloudflare这样的典型CDN有194个。

所不同的是,这些CDN现在已经开始向通用工作负载开放其基础架构,而不仅仅是缓存静态内容。如今,诸如Cloudflare、Fastly、Limelight、StackPath以及Zenlayer之类的CDN都提供了容器即服务、VM即服务、裸机即服务和Serverless功能的组合。换言之,它们开始看起来更像云提供商。具有前瞻性的云提供商也提供了此类基础架构,而AWS又卖出了多区域化基础架构的第一步,引入了第一个所谓的洛杉矶本地区域,并承诺将提供更多本地区域。

阶段三:接入边缘计算(Access Edge)

边缘演进的第三个阶段驱动边缘更向外拓展,以至与最终用户或设备仅相距一两个网络跃点。在传统的电信术语中,这称为网络的接入部分,因此这种类型的体系结构已被标记为接入边缘。Access Edge的典型形式是微型数据中心,其可以小如单机架,大如半个拖车,并且可以部署在路边或蜂窝网络塔的底部。在这背后,电力和冷却方面的创新将使得越来越小的密度的基础设施部署在这些小巧的数据中心中。

像Vapor IO、EdgeMicro和EdgePresence等新入局者已经开始在美国少数城市中建立这些微型数据中心。2019年是扩建元年,2020年至2021年将继续在这些扩建项目上投入大量资金。到2022年,边缘数据中心的回报将成为投资人的关注重点。最终,这些回报将回答以下问题:是否有足够的杀手级应用程序可以让边缘贴近最终用户或设备?

我们对这个问题的答案还处于懵懂阶段。最近,我与许多从业者进行交谈,他们都对此表示怀疑,即Access Edge中的微型数据中心是否比区域边缘的区域数据中心更具有足够的边际效益。早期采用者已经以多种方式利用了区域边缘,包括各种云卸载用例以及降低延迟优化用户体验(如在线游戏、广告服务和电子商务)。相比之下,需要Access Edge的超低延迟和非常短的网络路由的应用程序听起来更遥不可及:自动驾驶、无人机、AR/VR、智慧城市、远程手术等。更重要的是,这些应用程序必须权衡Access Edge的优势,而不是使用本地或设备上的方法在本地进行计算。但是,肯定会出现Access Edge的杀手级应用程序——也许今天还没能引起大家的关注,但是几年之后我们会对其有更深入的了解。

4、需要新软件来管理边缘

在以上的内容中,我简单阐述了边缘计算中的几种架构以及“边缘”可以位于许多地方。然而,该行业的最终方向是统一化、标准化——无论边缘位于何处都可以使用相同的工具和流程来管理云和边缘工作负载。这将需要对用于在云中部署、扩展和管理应用程序的软件进行改进,而该应用程序在过去设计时只考虑到单个数据中心的架构。

诸如Ori、Rancher和Volterra之类的初创公司以及诸如Google的Anthos、Microsoft的Azure Arc之类的大公司计划正在以这种方式发展云基础架构软件。实际上,所有这些产品都有一个共同点:它们基于Kubernetes,Kubernetes已经成为管理容器化应用程序的主要方法。但是这些产品超越了Kubernetes的最初设计,可以支持分布式多个Kubernetes集群。这些集群可能位于由“边缘”、本地环境和公有云组成的异构基础架构池的顶部,但是由于有了这些产品,它们都可以得到统一管理。

最初,这些产品的最大机会是支持边缘演进的第一阶段,即通过一个或多个云,利用少数区域,适度分布部署。但这恰好使它们处于有利地位,以支持即将来临的更加分布式的边缘计算架构。“解决了当今的多集群管理和运维问题,那么当你解决更广泛的边缘计算用例时,你将占据有利地位。” Rafay Systems CEO,Haseeb Budhani说道。

边缘,离辉煌并不遥远

既然现在支持边缘计算的资源不断涌现,面向边缘的思想将在设计应用程序的人们中更加普遍。在经历了一个以资源集中在少数云数据中心为趋势的时代之后,现在出现了一种要求增加分散化的反向力量。边缘计算仍处于起步阶段,但是已经从理论转向实际。现在这一行业正在迅速发展。正如大家所知,云计算只有14年的历史,那么我们有理由相信,不久之后的将来,边缘计算一定能在计算领域留下辉煌的印记。

作者 James Falkoff,位于波士顿的风险投资公司Converge的投资者。

海外巨头抢滩边缘计算

近日,IBM在其Think Digital大会上宣布推出新的边缘计算服务和多云解决方案,以帮助企业和电信公司在5G时代加快向边缘计算迈进。

云厂商们在努力推动全球边缘计算的发展。曾经推崇向集中式计算转型的大型云服务提供商现在则寻求向分布式计算转型。但云厂商们也并不希望基于云的业务被取代,相反,他们布局5G边缘计算是在防守,IT和CT融合加速,云厂商们想要把在云领域领先的优势复制到5G边缘计算领域。

随着IBM推出边缘计算产品和方案,至此,海外几大云厂商科技巨头均已完善布局边缘计算。本文选取AWS、微软、谷歌和IBM共4个国际互联网/IT头部公司为代表,了解这些巨头如何抢滩边缘计算。

 1 、AWS

亚马逊AWS服务是世界上最大的云计算平台之一,为数百万的Web服务提供基础架构支持。作为全球最成功的云厂商,AWS在新技术上无疑扮演着持续领先者的角色。

Amazon于2017年推出其首个商用边缘产品AWS IoT Greengrass,该产品将AWS业务无缝扩展到边缘设备,使这些设备对各自产生的数据进行本地处理,同时使用云上管理、分析和存储。

Amazon还开发一种数据迁移和边缘计算设备AWS Snowball Edge,用于数据本地存储和大规模数据传输。该设备可以部署在客户现场,内置存储和计算功能。它不仅可以实现在本地环境和AWS云之间的数据传输,还可以按需承载本地处理和边缘计算的工作负载。

Amazon还提供现场运行AWS基础设施的AWS Outposts。它专为网联环境设计,可用于支撑因低时延或本地数据处理需求而必须留在本地的工作负载。企业可以从公有云获取惯用的、相同的本地AWS业务。
2019年12月,亚马逊宣布发布 AWS Wavelength服务,可以看成是一项“边缘计算”服务。

它让开发者能够在5G网络上构建应用程序、向最终用户交付几有几毫秒的延迟。AWS Wavelength将 AWS 计算和存储服务嵌入到电信提供商的 5G 网络边缘,使开发者能够服务于需要超低延迟的应用场景,例如边缘的机器学习推理、自主工业设备、智能汽车与智慧城市、物联网,以及增强现实与虚拟现实。
据悉,该边缘计算平台专为“低延迟领域”打造,使用场景包括云AR/VR、云游戏、IoT等。Amazon提到:“包括云游戏串流,VR/AR实时渲染串流,等交互是场景应用需要毫秒级的延迟进行传输”,这是AWSWavelength的潜在应用场景。

2 、Azure

作为AWS最强的竞争对手,微软(Microsoft)在边缘计算上也有很多策略。
Microsoft将智能边缘定义为一组不断扩展的网联系统和设备,它们在靠近最终用户、数据、或两者兼有的位置收集和分析数据。通过Microsoft的Azure Stack,客户可以在各自的数据中心小规模地复制云环境,Microsoft也是首批使用这项技术的公司之一。

对于没有数据中心的地方,另一种解决方案是物理移动数据,比如通过存储容量超大的“数据盒子”产品,这些“盒子”会定期运至Microsoft,实现数据云上提取和处理。相比之下,Azure数据盒子边缘实现互联网上传输数据、在边缘执行计算。

2019年Microsoft发布的Azure SQLDatabase Edge,旨在通过高度可用及安全的SQL引擎来解决边缘侧数据和分析的需求。开发人员可以在统一的编程面上对SQL数据库进行开发,并在本地、云或边缘运行相同的代码。此外,通过Azure SQLDatabase Edge,开发者可以构建即使在完全断网的边缘场景下也能运行在边缘设备上的AI应用。

2020年4月,微软宣布推出Azure EdgeZones ,这是Azure公共云的扩展基础架构服务,将在Microsoft的全球网络,电信提供商的5G网络和客户数据中心中提供。Azure Edge Zones被称为业界最全面的边缘计算平台。

Azure Edge Zone从本质上来说是一个缩小的Azure数据中心,它比微软的主要云设施更靠近客户。
由于距离较近,所以数据跨网络所需的时间较少,这可以显著提高对延迟敏感的应用程序的性能。Edge Zones建立在Azure公共云和Azure Stack产品组合的坚实基础上通过Azure边缘区域提供三种边缘类型。

微软推出Azure Edge Zones是与AWS展开的直接竞争,后者在去年底推出了Wavelength解决方案。

3 、Google

Google推出的应用平台Cloud Anthos,使企业能够改造现有应用,构建新的应用,并随时随地(包括本地)运行这些应用,确保了本地应用和云环境的一致性。Google对源代码开源,意味着兼容不同厂商的硬件和应用程序。

在2018年谷歌云年度大会上,谷歌宣布推出两款旨在帮助客户大规模开发和部署智能连接设备的新产品:Edge TPU,一款新的硬件芯片,以及Cloud IoT Edge,一款将Google Cloud强大的AI功能扩展到网关和连接设备的软件栈。用户可以在云上构建和训练ML模型,然后通过Edge TPU硬件加速器在Cloud IoT Edge设备上运行这些模型。
随着云端训练的A I 模型越来越需要边缘运行, Edge TPU解决方案可以支撑AI在边缘运行。Edge TPU是对Cloud TPU和GoogleCloud业务的补充,提供端到端基础设施(云到边,硬件+软件),用于部署客户基于AI的解决方案。
Edge TPU方案性能高、功耗低、安装空间小,使能AI高精度边缘部署。由于性能出色、体型纤小、能耗极低,Edge TPU 可实现高品质 AI 在边缘的广泛部署。Edge TPU 不仅仅是一种硬件解决方案,它将定制硬件、开源软件和最先进的 AI 算法结合在一起,为边缘提供优质、易部署的 AI 解决方案。

4 、IBM

100多年历史的IBM,在边缘计算也有研究。

早在2012年,IBM发布的物联网生态图中的7层技术架构中就包含一层边缘计算(Edge Computing),这是IBM首次在公开报告中谈到边缘计算。距今8年了,IBM边缘计算战略布局怎么样?
今年5月6日,IBM和Red Hat发布了新的边缘服务和多云解决方案。该新解决方案包括IBM边缘应用管理器(IBM Edge Application Manager)、IBM电信网络云管理器(IBM Telco Network Cloud Manager)、一个启用了边缘计算的应用和服务组合、专注于边缘计算和电信网络云业务的IBM Services团队。

据了解,新解决方案运行在Red Hat OpenShift之上,确保其可以在任何地方运行——从数据中心到多个公有云,再到边缘端。借助这些解决方案,企业可以克服跨不同厂商的海量设备来管理工作负载这一复杂难题,同时为电信公司提供他们所需要的灵活性,快速地为其客户交付支持边缘的服务。

此外,IBM还发布了IBM边缘生态系统 (IBM Edge Ecosystem)和IBM电信网络云生态系统 (IBM Telco Network Cloud Ecosystem)。据IBM介绍,这一开放生态聚集了电信行业很多合作伙伴,如思科、戴尔、英特尔、英伟达、三星等。

目前,大约有10%的企业生成数据是在传统的集中式数据中心或云环境之外创建和处理的。据Gartner预测,到2025,到这一数字将达到75%。IDC预测,到2020年底,将有超过500亿个终端与设备联网,超过50%的数据需要在网络边缘分析、处理与存储。因此,边缘计算市场规模将超万亿元。
万亿市场,如果你是巨头,你会放过这块大蛋糕吗?

本文来自网络,不代表AIOT-ziot.cn立场,如有侵权请联系我们处理,转载请注明原出处。http://www.ziot.cn/?p=2233

作者: 小编

联系我们

联系我们

18810049910

在线咨询: QQ交谈

邮箱: everypray@foxmail.com

工作时间:周一至周五,9:00-17:30,节假日休息

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部