边缘计算:盘点100个知识点
3382665wgss 发布于2022-08 浏览:514 回复:0
0
收藏

边缘计算:盘点100个知识点
转载自中国人工智能培训网

链接:https://www.chinaai.org.cn/newsinfo/3168616.html

编者按:本文编译自Open Glossary of Edge Computing,仅供学习交流。

3G、4G、5G

第三代、第四代和第五代蜂窝技术。简单来说,3G 代表智能手机及其移动网络浏览器的引入;4G 是当前一代的蜂窝技术,为移动设备提供真正的宽带互联网接入;5G 蜂窝技术将为蜂窝系统提供巨大的带宽并减少延迟,支持从智能手机到自动驾驶汽车和大规模物联网的一系列设备。边缘计算被认为是 5G 的关键组成部分。

接入边缘(Access Edge)

最接近物理最后一公里网络的服务提供商边缘的子层,RAN 或电缆头端零跳或一跳。例如,部署在蜂窝网络站点的边缘数据中心。接入边缘层充当服务提供商边缘的前线,通常连接到层次结构上游的区域边缘层。接入边缘的边缘计算由位于前端和中端站点的高度分布式服务器级基础设施组成,例如蜂窝塔、电缆配电厂、聚合和预聚合集线器、中央办公室以及其他网络接入设备如蜂窝无线基站,以及xDSL和xPON设备。接入边缘数据中心通常属于微模块类型,易于部署和独立运行。由于需要支持超低延迟工作负载,包括那些需要可预测连接到最后一公里网络的工作负载,接入边缘设施通常位于无线电头端或电缆头端 15 公里范围内,最适合用于延迟在 1ms - 30ms 范围内。

接入网

将用户和设备连接到其本地服务提供商的网络。它与核心网形成了鲜明的对比,核心网将服务提供商彼此连接起来,接入网直接连接到基础设施的边缘。

聚合边缘

服务提供商层边缘距离接入边缘只有一跳的距离。可以作为单个位置的中型数据中心存在,也可以由多个互连的微型数据中心组成,以在区域边缘和接入边缘之间形成分层拓扑,以实现更好的协作、工作负载故障转移和可扩展性。

基站

RAN(无线接入网络)中的一种网元,负责在一个或多个小区内向用户设备发送和接收无线电信号。基站可以采用集成天线,也可以通过馈线电缆连接到天线阵列。采用专业的数字信号处理和网络功能硬件。在现代 RAN 架构中,为了灵活性、成本和性能,基站可能被拆分为多个功能块在软件中运行。

基带单元 (BBU)

一种负责基带无线电信号处理的基站组件。采用专门的硬件进行数字信号处理。在 C-RAN 架构中,BBU 的功能可以作为VNF在软件中运行。

中央办公室 (CO)

特定地理区域内的电信基础设施聚合点。物理上为存放电信基础设施设备而设计,但通常不适合容纳边缘数据中心规模的计算、数据存储和网络资源,因为它们的地板、供暖、制冷、通风、灭火和电力输送系统不足。在这种情况下,当硬件是专门为边缘情况设计的,它可以应付中央办事处的物理限制。

中央办公室重新设计为数据中心 (CORD)

在中央办公室内部署数据中心级计算和数据存储能力。

集中式数据中心

一种大型的、通常是超大规模的物理结构和逻辑实体,其中包含大型计算、数据存储和网络资源,由于其规模,这些资源通常由许多租户同时使用。与大多数用户有很大的地理距离,通常用于云计算。

云计算

一种提供按需访问共享计算资源池的系统,包括网络、存储和计算服务。通常使用少量大型集中式数据中心和区域数据中心。

云原生网络功能 (CNF)

云原生网络功能 (CNF) 是实现网络功能的云原生应用程序。CNF 由一个或多个微服务组成,使用云原生原则开发,包括不可变基础设施、声明性 API 和“可重复部署过程”。

举一个简单的 CNF 例子,数据包过滤器,它将单个网络功能作为微服务。防火墙也是一个例子,它可以由多个微服务组成(例如加密、解密、访问列表、数据包检查等)。

云节点

计算节点,例如单个服务器或其他一组计算资源,作为云计算基础设施的一部分运行。通常位于集中式数据中心内。

Cloud RAN (C-RAN)

RAN 的演进,允许将无线基站的功能分为两个组件:射频拉远头 (RRH) 和集中式 BBU。C-RAN 不要求在每个蜂窝无线电天线上都安装BBU,而是允许BBU在与发射塔一定距离的聚合点上工作,该聚合点通常称为 [分布式天线系统 (DAS) 集线器] 。将多个 BBU 放在一个聚合设施中可以提高基础设施效率,并更好地向 Cloud RAN 演进。在 C-RAN 架构中,由传统基站执行的任务通常作为VNF在通用计算硬件上的基础设施边缘微数据中心上执行。这些任务必须以高性能和尽可能低的延迟执行,需要在蜂窝网络站点上使用基础设施边缘计算来支持它们。

云服务提供商 (CSP)

由集中式和区域性数据中心组成的大型云资源运营组织。最常用于公有云环境中。也可以称为云服务运营商 (CSO)。

Cloudlet

在学术界,该术语指的是基础设施边缘的移动增强的公有或私有云,由卡内基梅隆大学的Mahadev Satyanarayanan推广。与边缘云同义。它还可以与边缘数据中心和边缘节点互换使用。在 3 层计算架构中,术语“cloudlet”是指中间层(Tier 2),Tier 1 是云,Tier 3 是智能手机、可穿戴设备、智能传感器等。

托管(Colocation)

将由不同方拥有或操作的计算、数据存储和网络基础设施部署在同一物理位置的过程。与共享基础设施不同的是,托管不要求边缘数据中心等基础设施拥有多个租户或用户。

计算卸载(Computational Offloading)

一种边缘计算用例,其中任务从边缘设备卸载到基础设施边缘以进行远程处理。例如,计算卸载通过将计算卸载到基础设施边缘来寻求移动设备的性能改进和节能,目标是最大限度地减少任务执行延迟和移动设备能耗。计算卸载还支持新类型的移动应用程序,这些应用程序需要的计算能力和存储容量超过了设备本身的能力。在其他情况下,为了提高性能,可以将工作负载从集中式数据中心转移到边缘数据中心。该术语在文献中也被称为云卸载和网络觅食。

计算卸载也使新类型的移动应用成为可能,这些应用需要的计算能力和存储容量超过了设备本身的能力(例如,无绳虚拟现实)。在其他情况下,为了提高性能,可以将工作负载从集中式数据中心转移到边缘数据中心。这个术语也被称为cloud offload 或 cyber foraging。

内容分发网络 (CDN)

一种分布在整个网络中的分布式系统,将内容(例如流媒体视频)放置在离用户更近的位置。CDN是构建在现有网络基础之上的智能虚拟网络,依靠部署在各地的边缘服务器,通过中心平台的负载均衡、内容分发、调度等功能模块,使用户就近获取所需内容,降低网络拥塞,提高用户访问响应速度和命中率。当使用基础设施边缘计算时,CDN 节点在边缘数据中心的软件中运行。

核心网

服务提供商网络层,它将接入网和接入网上的设备连接到其他网络运营商和服务提供商,这样数据就可以在互联网或其他网络之间传输。距离基础设施边缘计算资源可能有多个跃点。

CPE(Customer-Premises Equipment)

一种接收移动信号并以无线WIFI信号转发出来的移动信号接入设备,例如有线网络调制解调器,它允许网络服务的用户连接到服务提供商的接入网中。通常是从基础设施边缘计算资源向终端用户的一跳。

数据中心

可容纳多个高性能计算和数据存储节点的结构,将大量的计算、数据存储和网络资源集中在一个位置。在某些情况下也可能指计算和数据存储节点。集中式数据中心、区域数据中心和边缘数据中心的规模各不相同。

Data Gravity

数据不能在网络上自由移动,并且随着数据量和网络端点之间距离的增加,这样做的成本和难度也会增加,应用程序将倾向于数据所在的位置。

Data Ingest

为存储和后续处理而接收大量数据的过程。例如,边缘数据中心为视频监控网络存储了大量的视频,然后必须对这些视频进行处理以识别相关人员。

Data Reduction

在数据的产生者和最终接收者之间使用一个中间点来智能地减少传输的数据量,同时又不丢失数据的含义的过程。一个例子是智能重复数据删除系统。

数据主权

数据受其所在国家、州、行业的法律法规或管理其使用和移动的适用法律框架的约束的概念。

设备边缘(Device Edge)

最后一公里网络的设备端或用户端的边缘计算能力。通常依赖于现场的网关或类似设备来收集和处理来自设备的数据。可能还会使用用户设备(如智能手机、笔记本电脑和传感器)有限的备用计算和数据存储能力来处理边缘计算工作负载。与基础设施边缘不同,因为它使用设备资源。

设备边缘云(Device Edge Cloud)

边缘云概念的扩展,其中某些工作负载可以在设备边缘可用的资源上运行。通常不提供类似云的弹性分配资源,但对于零延迟工作负载来说可能是最佳选择。

分布式天线系统 (DAS) 集线器

用作许多无线电通信设备的聚合点的位置,通常用于支持蜂窝网络。可能包含或直接连接到部署在基础设施边缘的边缘数据中心。

边缘云

位于基础设施边缘的类云功能,包括从用户角度访问弹性分配的计算、数据存储和网络资源。通常作为集中式公有或私有云的无缝扩展运行,由部署在基础设施边缘的微型数据中心构建。有时也称为分布式边缘云。

边缘计算

边缘计算,是指在靠近物或数据源头的一侧,采用网络、计算、存储、应用核心能力为一体的开放平台,就近提供最近端服务。通过缩短设备与为其服务的云资源之间的距离,并减少网络跳数,边缘计算缓解了当今互联网的延迟和带宽限制,从而迎来了新的应用类别。边缘计算处于物理实体和工业连接之间,或处于物理实体的顶端。而云端计算,仍然可以访问边缘计算的历史数据。

边缘数据中心

与传统的集中式数据中心相比,边缘数据中心能够尽可能靠近网络边缘的地方。尽管单独使用规模较小,但能够执行与集中式数据中心相同的功能。由于高度分布式的物理位置产生的独特约束,边缘数据中心通常采用自主操作、多租户、分布式和本地弹性以及开放标准。边缘指的是这些数据中心通常部署的位置。它们的规模可以定义为微型,容量从 50 到 150 kW+ 不等。多个边缘数据中心可以互连,以在本地区域内提供容量增强、故障缓解和工作负载迁移,作为虚拟数据中心运行。

Edge Exchange

发生在边缘数据中心的 Pre-internet traffic exchange,通常在接入边缘处或附近。此功能通常在边缘数据中心的 Edge Meet Me Room 中执行,并且如果边缘交换处不存在目标位置,则可以与传统的集中式互联网交换点以补充或分层方式运行。与区域或集中式互联网交换相比,边缘交换可用于改善端到端应用程序延迟。

Edge Meet Me Room

边缘数据中心内的一个区域,租户和电信提供商可以在该区域中相互互连以及与其他边缘数据中心互连,其方式与在MMR中的方式相同。

边缘网络结构(Edge Network Fabric)

网络互连系统,通常是暗光纤或亮光纤,在基础设施边缘数据中心和潜在的其他本地基础设施之间提供连接。这些网络由于其规模和运行位置通常跨越位于市中心的不同地理区域,可以被视为城域网。

边缘节点

一种计算节点,例如单个服务器或一组计算资源,作为边缘计算基础设施的一部分运行。通常位于运行在基础设施边缘的边缘数据中心内,因此比集中式数据中心中的云节点在物理上更接近其目标用户。

边缘增强应用(Edge-Enhanced Application)

一种能够在集中式数据中心运行的应用程序,但在使用边缘计算运行时有性能(通常是在延迟方面)或功能优势。这些应用程序可以改编自集中式数据中心的现有应用程序,或者可能不需要更改。

边缘原生应用(Edge-Native Application)

原生构建的利用边缘计算能力的应用程序。边缘原生应用程序利用云原生原则,同时考虑到边缘在资源限制、安全性、延迟和自主性等领域的独特特征。边缘原生应用程序以利用云并与上游资源协同工作的方式开发。

雾计算

一种早期的边缘计算概念,它规定了计算和数据存储资源以及应用程序及其数据位于用户和云之间的最佳位置,目标是提高性能和冗余。雾计算一词最初是由思科创造的,作为边缘计算的替代品,但如今已被弃用。

网关设备

用户边缘上的设备,用作其他本地设备的管道,目的是聚合和促进现场设备的数据传输,其中许多设备是电池供电的,可以在低功耗状态下长时间运行。网关连接到这些设备并收集数据以转发到本地数据中心或通过最后一公里网络进行传输。

硬实时(Hard Real Time)

与需要确定性响应的用例或应用程序相关,其中消息必须按时并以可预测的方式到达,否则可能导致严重或危及生命的故障。PLC、RTU 和 ECU 等资源多年来一直用于工业过程控制、机械、飞机、车辆和无人机,需要实时操作系统 (RTOS) 和专用的固定功能逻辑。硬实时功能的例子包括控制工业车床、应用车辆制动器或展开车辆安全气囊;这些功能普遍在用户边缘执行,因为无论该连接的速度和可靠性如何,它们都不能依赖对最后一公里网络的控制。

基础设施边缘(Infrastructure Edge)

目前被 LF Edge 分类中的服务提供商边缘(Service Provider Edge)一词所取代,基础设施边缘原本指的是计算能力,通常以一个或多个边缘数据中心的形式,部署在最后一公里网络的运营商一侧。位于基础设施边缘的计算、数据存储和网络资源允许像云一样的能力,如资源的弹性分配,但是,由于与集中式或区域性数据中心相比,用户具有更高的局部性,因此具有更低的延迟和更低的数据传输成本。

互连

通常通过光纤电缆将一方的网络连接到另一方的网络,例如在互联网对等点、MMR。该术语还可以指两个数据中心之间或数据中心内的租户之间的连接,例如 Edge Meet Me Room。

互联网边缘

基础设施边缘内的一个子层,基础设施边缘和互联网之间发生互连。包含 Edge Meet Me Room和其他设备,用于提供这种高性能水平的互连。

互联网交换点(IXP)

不同电信运营商之间为连通各自网络而建立的集中交换平台,IXP是为促进互联网骨干网的网间互联和公平竞争而设置的运营商间进行数据网际交换的机构 是为互联网业者提供空间进行网络互连、交换流量和资源的服务场所。互联网边缘可能经常连接到 IXP。

物联网边缘(IoT Edge)

智能设备边缘的一个子集,由针对物联网用例的headless(即在常规操作中没有用户界面)计算资源组成。

IP聚合

利用基础设施边缘的计算、数据存储和网络资源,尽可能早地分离和路由从蜂窝网络RAN接收到的网络数据。如果不使用IP聚合,这些数据可能需要通过更长的路径到达本地CO或其他聚合点,然后才能路由到Internet或其他网络。为用户改进蜂窝网络的QoS。

抖动

在一段时间内观察到的网络数据传输延迟的变化。在整个测量周期内,从最低到最高的观测延迟值,以毫秒为单位进行测量。实时应用程序(如 VoIP、自动驾驶和在线游戏)的一个关键指标。

最后一公里

电信网络中连接服务提供商和客户的部分。客户与基础设施之间的连接类型和距离决定了客户可用的性能和服务。最后一公里是接入网的一部分,也是服务提供商控制范围内离用户最近的网段。

延迟

在网络数据传输的环境中,一个数据单位(通常是帧或数据包)从原始设备传输到目的地所花费的时间。在两个或多个端点之间的单个或重复时间点以毫秒为单位进行测量。优化现代应用程序用户体验的关键指标。与抖动不同,抖动是指延迟随时间的变化。有时表示为往返时间 (RTT)。

延迟关键型应用

如果延迟超过一定的阈值,应用程序将无法正常运行或功能崩溃。延迟关键应用程序通常负责实时任务,例如支持自动驾驶汽车或控制机器对机器的进程。与延迟敏感型应用不同,超过响应延迟需求通常会导致应用程序失败。

延迟敏感型应用

减少延迟可以提高性能,但如果延迟高于预期,应用仍然可以运行。与延迟关键型应用不同,超过延迟目标通常不会导致应用程序故障,但可能会导致用户体验下降。例如图像处理和批量数据传输。

Local Breakout

将internet-bound流量放到边缘网络节点(如边缘数据中心)的internet上的能力,而不需要流量通过更长的路径返回聚集的、更集中的设施。

位置感知

使用 RAN 数据和其他可用数据源以高精度确定用户的位置以及他们在不久的将来可能的位置,以实现工作负载迁移以确保最佳应用程序性能。

基于位置的节点选择(Location-Based Node Selection)

一种基于节点的物理位置相对于设备的物理位置来选择运行工作负载的最佳边缘节点的方法,目的是提高应用程序工作负载的性能。工作负载编排的一部分。

管理和编排 (MANO)

在边缘计算的背景下,这是边缘设备和边缘应用程序在其整个生命周期内的管理和编排,包括配置、监控、更新、操作和保护应用程序和数据。不同的边缘层需要类似的原则,但通常依赖于不同的工具集,这是由于固有的技术权衡,如可用计算占用空间、失去最后一公里连接期间的自主性、正常运行时间需求、时间紧迫性等。

微模块数据中心 (MMDC)

模块化数据中心是指以较小规模应用模块化数据中心概念的数据中心,容量通常为 50 至 150 kW。采用多种可能的形式,包括机架式机柜,可根据需要在室内或室外部署。与大型模块化数据中心一样,微模块数据中心能够与其他数据中心组合以增加区域内的可用资源。

Mixed-Criticality工作负载整合

将硬实时或延迟和安全关键型工作负载与软实时和延迟敏感型工作负载(例如通用边缘基础设施上的 AI/ML 模型)整合在一起的做法。

移动边缘

基础设施边缘、设备边缘和网络切片功能的组合,经过调整以支持特定用例,例如实时自动驾驶汽车控制、自动驾驶汽车寻路和车载娱乐。此类应用程序通常结合了对高带宽、低延迟和无缝可靠性的需求。

移动网络运营商 (MNO)

蜂窝网络的运营商,通常负责网络部署和有效运行所需的物理资产,例如 RAN 设备和网络站点。与 MVNO 不同,MNO 负责物理网络资产。可能包括部署在基础设施边缘的边缘数据中心,这些边缘数据中心位于或连接到这些资产下的蜂窝站点。通常也是一个服务提供商,提供对其他网络和互联网的访问。

移动虚拟网络运营商 (MVNO)

一种类似于 MNO 的服务提供商,区别在于 MVNO 不拥有或不经常运营自己的蜂窝网络基础设施。尽管他们不会拥有部署在连接到他们可能正在使用的蜂窝站点的基础设施边缘的边缘数据中心,但 MVNO 可能是该边缘数据中心内的租户。

模块化数据中心 (MDC)

一种为可移植性而设计的数据中心部署方法。高性能计算、数据存储和网络功能安装在便携式结构中,然后可以运输到需要的地方。这些数据中心可以与现有数据中心或其他模块化数据中心相结合,以根据需要增加可用的本地资源。

多接入边缘计算 (MEC)

由 ETSI 赞助的开放应用程序框架,支持与RAN紧密耦合的服务开发。MEC 于 2014 年正式提出,旨在通过标准化的软件平台、API 和编程模型来增强 4G 和 5G 无线基站,以便在无线网络边缘构建和部署应用程序。MEC 允许部署无线感知视频优化等服务,利用缓存、缓冲和实时转码来减少蜂窝网络的拥塞并改善用户体验。MEC最初被称为移动边缘计算,2016 年更名为多接入边缘计算,以强调他们将 MEC 扩展到蜂窝之外的其他接入技术的雄心。利用部署在基础设施边缘的边缘数据中心。

近实时(Near Real Time)

受益于离散的低延迟时序的应用程序或用例,但对低延迟而非硬实时的时序有一定的容忍度。

网络功能虚拟化 (NFV)

一种对于网络架构(network architecture)的概念,利用虚拟化技术,将网络节点阶层的功能,分割成几个功能区块,分别以软件方式实现,不再拘限于硬件架构。使用行业标准虚拟化和云计算技术,将网络功能从专有硬件设备中的嵌入式服务迁移到运行在标准x86和ARM服务器上的基于软件的VNF。在许多情况下,NFV处理和数据存储将发生在直接连接到基础设施边缘的本地蜂窝站点的边缘数据中心。

网络跃点

在网络中传输数据时发生路由或交换的点。减少用户和应用程序之间的网络跃点数是边缘计算的主要性能目标之一。

东西南北数据流

指跨边缘的数据流进出集中式云数据中心连续体的方向性。北向是指数据流向“上游”,例如从部署在用户边缘的资源到部署在服务提供商边缘和集中云的资源;而南向是指数据流向相反的方向。东向和西向数据流是指在整个连续体中相同/相似位置的资源对等体之间的相互通信。

本地数据中心边缘(On-Premises Data Center Edge)

用户边缘的一个子类别,由位于最终用户运营的建筑物内或附近的服务器级计算基础设施组成,例如办公室和工厂。这些位置的 IT 设备位于传统的私有数据中心和模块化数据中心 (MDC) 中。这些资源在可用空间、电力和冷却的范围内具有适度的可扩展性。用于安全和MANO的工具与云数据中心中使用的工具类似。

OTT(Over-the-Top Service Provider)

不拥有或运营底层网络的应用程序或服务提供商,在某些情况下是数据中心以及将其应用程序或服务交付给用户所需的基础设施。流媒体视频服务和 MVNO 是当今非常普遍的 OTT 服务提供商的例子。通常是数据中心租户。

Perishable Data

如果在某一时刻采取行动,这些数据是最有价值的,一旦处理可能会被丢弃,以降低通过最后一英里网络的连接成本。通过在本地处理来自传感器的数据,然后只向服务提供商边缘或云发送相关信息,而不是原始数据流,应用程序和连接性可以得到优化。

存在点 (PoP)

网络基础设施中的一个点,服务提供商允许用户或合作伙伴连接到他们的网络。在边缘计算的背景下,如果 IXP 不在本地区域内,在许多情况下,PoP 将在 edge meet me room 内。边缘数据中心将连接到 PoP,然后再连接到 IXP。

QoE

QoS原则的高级使用,对应用程序和网络性能进行更详细和细致的测量,目标是进一步改善应用程序和网络的用户体验。也指能够主动测量性能并根据需要调整配置或负载平衡的系统,因此可以被视为工作负载编排的一个组件。

QoS

衡量网络和数据中心基础设施服务特定应用程序(通常是针对特定用户)的指标。吞吐量、延迟和抖动都是关键的 QoS 测量指标,边缘计算旨在为许多不同类型的应用程序改进,从实时到批量数据传输用例。

无线接入网 (RAN)

接入网络的一种无线变体,通常指的是蜂窝网络,例如 3G、4G 或 5G。5G RAN将利用NFV和C-RAN,在基础设施边缘的计算、数据存储和网络资源提供支持。

实时(Real Time)

受益于或需要离散、低延迟时间的应用程序或用例。

区域数据中心

位于集中式数据中心和微模块数据中心之间的数据中心,已建成足够的规模,并且位置便利,可服务于整个区域。物理上比Access Edge更远离最终用户和设备,但比集中式数据中心更靠近他们。在某些情况下也称为都市数据中心。传统云计算的一部分。

区域边缘

服务提供商边缘的一个子类别,由位于区域数据中心的服务器级基础设施组成,这些数据中心也往往用作主要的对等站点。区域边缘数据中心能够支持 30 毫秒 - 100 毫秒范围内延迟的边缘工作负载。

Resource Constrained Device

设备边缘的一个子类别,指位于最后一公里网络的设备边缘侧的设备,这些设备通常由电池供电,并且可以在省电模式下长时间运行。这些设备通常在本地连接到网关设备,网关设备反过来传输和接收由本地网络以外的源生成的数据,并将数据定向到网关设备,例如在基础设施边缘的边缘数据中心运行的数据分析应用程序。

服务提供商

为客户提供网络接入的组织,其目标通常是通过“最后一公里”网络为客户提供互联网接入。客户通常会通过光纤电缆或无线蜂窝调制解调器从用户边缘的最后一公里连接到服务提供商的接入网。

服务提供商边缘

LF Edge 分类中的两个主要边缘层之一,用于指定部署在最后一公里网络的服务提供商端的边缘计算能力。服务提供商边缘由放置在大都市地区服务提供商网络附近或支持服务提供商网络的 IT 设备组成,并涵盖接入网络和最近的互联网交换 (IX) 点之间的物理地理位置。服务提供商边缘进一步细分为接入边缘和区域边缘,通常能够以低于 100 毫秒的延迟提供边缘计算。最初被称为基础设施边缘。

共享基础设施

多方使用单个计算、数据存储和网络资源,例如两个组织各自使用单个边缘数据中心的一半,这与各方拥有自己的基础设施的不同。

智能设备边缘

用户边缘的一个子类别,由位于物理安全数据中心之外的计算硬件组成,但仍能够支持用于云原生软件开发的虚拟化和/或容器化技术。这些资源涵盖消费级移动设备、 PC以及物联网设备。虽然这些设备能够进行通用计算,但由于成本、电池寿命、外形尺寸和坚固性(热和物理)等各种原因受到性能限制,因此与上游数据中的资源相比,处理可扩展性存在实际限制。这些系统越来越趋向于以图形处理单元 (GPU) 或现场可编程门阵列 (FPGA) 的形式进行协同处理,以加速分析。智能设备边缘的资源可以作为单独的设备进行部署和使用(例如,工厂车间的智能手机或物联网网关),也可以嵌入到分布式、独立的系统中,例如联网/自动驾驶汽车、信息亭、油井和风力涡轮机。

Soft PLC

一种虚拟化可编程逻辑控制器 (PLC),可以与其他虚拟化或容器化应用程序一起整合到通用基础设施中,以用于并行运行的数据管理、安全和分析应用程序,并与更高的边缘层进行交互。

软实时(Soft Real Time)

与延迟敏感的应用程序相关联,例如视频流,其中应用程序依赖低延迟网络来提供良好的用户体验,但网络故障或延迟不会导致严重或可能危及生命的故障。为了方便和规模经济,通常从服务提供商边缘交付具有软实时要求的应用程序。

吞吐量

在网络数据传输环境中,每秒能够在两个或多个端点之间传输的数据量。以每秒比特数来衡量,通常根据需要以兆比特或千兆比特为单位。尽管应用程序通常需要最小的吞吐量水平才能正常运行,但在此延迟之后,通常会限制应用程序和损害用户体验。

Thick Compute

在边缘计算的背景下,是指通常位于智能设备边缘和本地数据中心边缘的高端网关和服务器级计算。可以部署在安全数据中心内部或外部。

Thin Compute

在边缘计算的背景下,指的是网关、集线器和路由器形式的更受限制的边缘计算资源,它们只有最小的处理能力,通常与其他更强大的(Thick Compute)设备结合使用来执行计算。智能设备边缘的一部分,通常部署在物理安全数据中心之外。

Tiny ML

在基于微控制器的设备中部署功能有限的机器学习 (ML) 推理模型,通常在受限设备边缘。需要高度专业化的工具集来容纳可用的处理资源。例如ML 模型,它使智能扬声器能够在服务器进一步处理后续语音交互之前在本地识别唤醒词(例如“Hey Siri”)。

流量卸载

将通常传输效率低下的数据(例如通过长距离、拥塞或高成本网络)重新路由到替代的、更本地的目的地(例如,CDN 缓存)或更低成本或更高效的网络的过程。Local Breakout 是使用边缘计算进行流量卸载的一个例子。

Truck Roll

在边缘计算的环境中,将人员派遣到边缘计算位置(例如边缘数据中心)的行为,通常是为了解决或排除检测到的问题。这些地点通常偏远,大部分时间都是远程操作,没有现场人员。这使得上门服务的其他实际考虑成本成为边缘计算运营商的潜在关注点。

用户边缘

部署在最后一公里网络用户侧的边缘计算能力,也称为设备边缘。LF Edge 分类中的两个主要边缘层之一,由服务器、存储和网络以及设备组成,部署在最后一公里网络的下游侧。用户边缘资源与物理世界中的最终用户和流程相邻,涵盖范围广泛的设备类型,包括网关、服务器和最终用户设备。用户边缘上的工作负载通常与服务提供商边缘上的资源一起工作,但能够实现较低的延迟并节省带宽,处理数据无需数据通过最后一公里的网络。与服务提供商边缘相比,用户边缘代表了高度多样化的资源组合。用户边缘包含本地数据中心边缘、智能设备边缘和受限设备边缘。

V2X

V2I 的超集,指的是类似 V2I 的技术,它使得车与车、车与基站、基站与基站之间能够通信。从而获得实时路况、道路信息、行人信息等一系列交通信息,从而提高驾驶安全性、减少拥堵、提高交通效率、提供车载娱乐信息等。

V2I,用于连接或自动驾驶汽车的技术集合,用于连接到其支持的基础设施,如在基础设施边缘的边缘数据中心运行的机器视觉和路径查找应用程序。通常使用更新的蜂窝通信技术,如5G或Wi-Fi 6作为接入网络。

虚拟数据中心

由多个物理边缘数据中心构建的虚拟实体,从外部可以将它们视为一个实体。在虚拟数据中心内,可以根据负载平衡、故障转移或运营商偏好,根据需要将工作负载智能地放置在特定的边缘数据中心或可用区内。在这种配置中,边缘数据中心通过低延迟网络互连,旨在创建冗余和弹性的边缘计算基础设施。

虚拟化网络功能 (VNF)

一种基于软件的网络功能,在通用计算资源上运行,NFV 使用它来代替专用的物理设备。在许多情况下,多个 VNF 将在基础设施边缘的边缘数据中心上运行。

工作负载编排

一种智能系统,可动态确定要在计算、数据存储和网络资源范围内处理的应用程序工作负载的最佳位置、时间和优先级,从集中式和区域数据中心到基础设施边缘和设备边缘的可用资源。工作负载可以被标记为特定的性能和成本需求,这决定了它们将在哪里运行。搜索人工智能技术与咨询了解更多专业信息。

收藏
点赞
0
个赞
TOP
切换版块