目录

 

 

边缘计算与云计算的异同

边缘计算 — 与硬件厂商_运维
云计算的特点

  1. 计算的中心化(集中化):在云计算场景下,我们看到的服务器发挥作用的形态是集群化。云计算中,IT 系统不再是多个系统相互独立的烟囱模式,而是通过虚拟化技术将服务器、存储池化,多个系统共享计算资源。在这一 IT 架构逻辑下,云计算中单个服务器的性能、吞吐量、可靠性等重要性能指标的重要性相对降低,其追求更多的是服务器集群或者整个数据中心的可用性及性能。

  2. 计算的高可靠性。云计算中数据中心的集群模式,使得计算的基础不是单台服务器,而是而整个服务器集群,这样使得计算不仅具备高性能,同时具有高可靠性,即使单台甚至多台服务器同时出现宕机,其计算能够快速向其它服务器进行切换。

  3. 计算的可扩展性。我们知道,云计算底层计算资源的核心逻辑,就是通过虚拟化技术,将计算和存储资源进行池化,将原来物理隔离的单台计算资源进行虚拟化和集中化。最终以集群化处理来达到单台服务器所难以实现的高性能计算。服务器集群的计算能力,可以通过不断增加虚拟化服务器的数量来进行扩展。

边缘计算 — 与硬件厂商_运维_02

边缘计算的特点

  1. 异构计算:5G 驱动的计算革命的升级,将进一步拓宽计算的边界。云游戏、VR/AR、超高清视频、物联网、视频、直播等应用的推广,使得计算的场景和计算数据格式更加多样、更加复杂。从原来的结构化数据,演化为更多的非结构化数据(语音、文本、图片、视频等)。这就需要边缘计算能够解决异构计算的问题。

  2. 边缘智能:对于边缘智能,我们可以从以下两个方面来理解:1)未来的物联网终端将更加智能;2)利用 AI 技术为物联网终端的计算进行升级。边缘智能利用 AI 技术为边缘侧赋能, 是 AI 的一种应用与表现形式。AI 通过边缘节点能够获得更丰富的数据,并针对不同应用场景实现个性化和泛在化,极大地扩展人工智能的应用场景。边缘节点可以借助 AI 技术更好地提供高级数据分析、场景感知、实时决策、自组织与协同等智能化服务。边缘侧轻量级、低延时、高效的 AI 计算框架显得尤为重要。

  3. 边云协同:边云协同,就是要平衡边缘和云端之间的计算资源利用。在边缘计算之前,大部分的核心计算都是集中在云端,未来计算资源将在边缘端和云端进行更合理分配,来满足不同应用场景对计算的需求。比如:对于应用的开发和部署,开发部分可以放在云端来完成,能够充分发挥云端算力重组、多语言、多工具的优势,部署部分可以根据不同场景的需求,放在边缘节点。对于云游戏,渲染部分可以放在云端,呈现部分放在边缘侧。对于AI 的应用,深度学习相关的模型训练放在云端执行,与之对应的推理部分放在边缘节点来执行。

边缘计算对服务器的需求

不同的计算场景对服务器的需求点也会发生变化。在这个过程中,服务器市场的竞争格局也随之发生变化,e.g. 云计算场景下,标准化服务器厂商的份额有所下降,定制化开发的云服务器厂商的市场份额提升。这也是 IT 产业发展的特点,需求的变革,带来供应格局的变化。

边缘计算 — 与硬件厂商_运维_03

异构计算的需求

边缘服务器要满足多种业务诉求、多样性数据的计算需求,必须要支持异构计算。异构计算的核心是多芯片支持,包括:CPU(x86、ARM)、GPU、NPU、NP、FPGA 等。

  • GPU 在视频编解码、并行计算、人工计算有广泛的应用,典型的厂家是 NVIDIA、AMD 等。NPU 是神经网络处理器,采用数据驱动并行计算的架构,在人工智能、深度学习方面有广泛的应用,典型的厂家有寒武纪、昇腾等,典型厂家是 Broadcom、Marvell 等。

  • ARM 架构的 CPU 在终端领域占据绝大部分份额。随着 ARM 高性能核的不断推出,也可以满足服务器领域的应用。特别是边缘计算领域,作为数据的第一入口,ARM 架构在终端领域的优势可以更好地实现端边协同,应对海量数据的多样性。

边缘计算 — 与硬件厂商_运维_04

异构计算能够满足边缘计算对多样性计算的需求。通过异构计算可以满足 “连接 + 计算” 的基础设施的构件,可以满足碎片化产业和差异化应用的需求,提升计算资源的利用率,支持算力的灵活部署和调度。在不同的边缘计算场景中,不用的计算任务对硬件资源的需求不同,从计算模式、并发数、迭代深度等方面,可能需要 x86、ARM、GPU、NPU 等多种类型的芯片支持。

边缘计算 — 与硬件厂商_运维_05

部署运维的需求

在边缘计算场景下,服务器的部署从原来的集中化管理到散落化部署。服务器运维的整体难度增加。同时,服务器之间的差异化,也为管理异构服务器增加了难度。对边缘服务器运维管理的要求包括:

  1. 对异构服务器进行统一的运维管理接口。在云数据中心中,服务器的类型或者架构大体相同或类似。而在边缘计算中,为了应对异构计算的需求,同一机房可能放置不同架构的服务器(X86/ARM),这就需要统一的运维管理接口,来实现对不同架构服务器实时运行状态的获取。
    边缘计算 — 与硬件厂商_运维_06

  2. 业务自动化部署。边缘计算的服务器部署在区县级机房,数量众多,势必要采取高效运维方式,实现自动安装业务/ 统一分发业务,自安装,自升级,自补丁升级,降低对运维人员水平的要求,同时减少现场操作,达到高效运维。可以看出,边缘服务器的运维管理方式与云服务器存在较大的不同。云计算场景下的服务器一般都是集中化管理运维。运维管理模块实现了X86 服务器、ARM 服务器、第三方服务器生命周期内固件升级管理。固件升级主要包含三部分:版本仓库、升级计划、设备版本状态,满足运维人员主动升级和升级计划自动升级两种升级场景。
    边缘计算 — 与硬件厂商_运维_07

  3. 环境匹配的需求。边缘服务器部署的环境相对比较复杂,通常在网络边缘的园区。同时,为了获得更小的延时,边缘服务器部署位置下沉到市县一级的机房,这样会节省传输带宽,也获得了更好的用户体验。与传统数据中心所处的标准化机房相比,边缘服务器所处的环境条件比较复杂,空间、温度、承载、电源系统等方面都存在较大的差异。

    1. 机柜空间:边缘数据中心机房机柜深度多为 600mm 深,远小于核心数据中心 1200mm的机柜深度,常规IT 通用服务器无法正常部署,因此边缘服务器的尺寸设计应满足 600mm 的机柜深度。
    2. 环境温度:边缘机房制冷能力有限,无法保证环境温度的稳定性,甚至有些机房不具备制冷能力;服务器连续工作散热不利,室外温度过高,将导致机房温度可能超过 45℃;因此边缘服务器对环境温度的适应力应更强,如 -5℃-45℃。
    3. 机房承重限制:边缘机房承重标准普遍低于数据中心,对服务器的部署密度带来影响。

边缘计算 — 与硬件厂商_运维_08