技术日新月异,物联网、人工智能、深度学习等遍地开花,各类芯片名词GPU, TPU, NPU,DPU层出不穷…它们都是什么鬼?又有什么不一样?01CPUCPU,作为机器的“大脑”,它是布局谋略、发号施令、控制行动的“总司令官”,担负着整个计算机系统的核心任务。CPU由多个结构组成,其中包括运算器(ALU, Arithmetic and Logic Unit)、控制单元(CU, C
转载 2018-10-26 20:30:00
246阅读
2评论
fiddler
转载 2021-06-05 17:26:20
765阅读
储能变流器介绍: 储能变流器(PCS)也是一种DC/AC三相逆变器,与风电变流器、光伏逆变器的拓扑都是一样的,但PCS对能量可充可放,同一厂家的这几类产品,同一功率等级的话硬件差别很小,软件虽有差别,但继承性也很强,所以同一功率等级的PCS与光伏逆变器的成本应很接近。 传统的PCS在并网时的控制方式简称PQ模式,是电流源型的,即其电路模型等效为一个电流源并联在电网上;在离网时的控制方式简称VF模式
本文转载自本EEFOCUS与非网一篇很不错的文章,来开启我们桐烨科技嵌入式AI平台的开发之旅。
转载 2018-05-29 12:00:50
10000+阅读
前言 先给大家讲一则小故事,在我们很小的时候是没有手机的,那时候跟女神聊天都靠小纸条。某屌丝A男对隔壁小王的隔壁女神C倾慕已久,于是天天小纸条骚扰,无奈中间隔着一个小王,这样小王就负责传小纸条了。有一天小王忍不住偷偷打开A男表白的纸条,把里面内容改了下,改成了:我的同桌小王喜欢你。最后女神C小王走
原创 2021-06-03 16:38:55
175阅读
今天分享的这篇Paper来自Los Alamos National Laboratory(LANL), Los Alamos国家实验室的项目, 他们提出了新的GPU model, 也是开源项目, PPT-GPU (Performance Prediction Toolkit) GPU model. 预测误差在10%以内, 可扩展, 比GPGPU-Sim快450倍, 而且更精确.Background
显卡CPU是电脑中最值钱的两个核心硬件,那么相信不少人都会有XX显卡怎么搭配CPU或者XXCPU需要搭配什么显卡的问题,那么显卡CPU之间是否有搭配要求呢?好的CPU可以搭配差的显卡吗?高端显卡可以搭配低端CPU吗?显卡处理器是否有搭配要求没有,正常来说只要主板兼容,那么显卡CPU随便搭。因为显卡CPU是不存在兼容问题的,低端的显卡可以配低端CPU也可以配旗舰级,反之是一样的。如果真的要
所谓的AI芯片,一般是指针对AI算法的ASIC(专用芯片)。 传统的CPU、GPU都可以拿来执行AI算法,但是速度慢,性能低,无法实际商用。 比如,自动驾驶需要识别道路行人红绿灯等状况,但是如果是当前的CPU去算,那么估计车翻到河里了还没发现前方是河,这是速度慢,时间就是生命。如果用GPU,的确速度要快得多,但是,功耗大,汽车的电池估计无法长时间支撑正常使用,而且,老黄家的GP
我们知道做深度学习离不开GPU,不过一直以来对GPUCPU的差别,CUDA以及cuDNN都不是很了解,所以找了些资料整理下,希望不仅可以帮助自己理解,也能够帮助到其他人理解。 先来讲讲CPUGPU的关系差别吧。截图来自资料1(CUDA的官方文档): GPU有更多的运算单元(如图中绿色的ALU),而ControlCache单元不如CPU多,这是因为GPU在进行并行计算的时候每个运算单元都是
GPU即图形处理器,Graphics Processing Unit的缩写。CPU即中央处理器,Central Processing Unit的缩写。TPU即谷歌的张量处理器,Tensor Processing Unit的缩写。三者区别:CPU虽然有多核,但一般也就几个,每个核都有足够大的缓存足够多的数字逻辑运算单元,需要很强的通用性来处理各种不同的数据类型,同时又要逻辑判断又会引入大量的分支
转载 6月前
33阅读
1. CUDA的内存模型每个线程有自己的私有本地内存(local memory) , 每个线快有包含共享内存, 可以被线程块中所有线程共享,其声明周期与线程块一致。此外,所有的线程都可以访问全局内存(global memory) 还可以访问一些只读内存块: 常量内存(Constant Memory)纹理内存(Texture Memory).2. GPU的核心组件 – SM(Streaming M
1、单处理器到多处理器的演变     尽管单处理器仍在发展,但由于指令级并行的开发空间正在减小,再加上散热等问题限制了时钟频率的继续提高,所以单处理器发展的速度正在减缓,这最终导致了起源于在单独一个晶片设计多个内核的多处理器系统结构的出现。    多处理器系统结构允许多个处理器执行同一个程序,共享同一个程序的代码地址空间,并利用并行技术来提高计
1.概念2D+透视 = 3D3D术语:光栅化:实际绘制或填充每个顶点之间的像素形成过程着色:沿着顶点之间改变颜色值,能够轻松创建光照照射到一个立方体的效果纹理贴图:将纹理图片附着到你绘图的图像上混合:颜色混合效果渲染:表示计算机从模型创建最终图像的过程2.认识GPUGPU全称是GraphicProcessing Unit--图形处理器,其最大的作用就是进行各种绘制计算机图形所需的运算,包括顶点设置
学习日记 1,学习知识点卷积神经网络(CNN)天气识别2,学习遇到的问题内容较复杂,难懂3,学习的收获采用CNN实现多云、下雨、晴、日出四种天气状态的识别。本文为了增加模型的泛化能力,新增了Dropout层并且将最大池化层调整成了平均池化层。4,实操语言环境:Python3.6.5编译器:jupyter notebook深度学习环境:TensorFlow21. 设置GPU 如果使用的是CPU可以
Linux应用开发(二)——OpenGL与OpenCL是何关系小狼@ OpenGL = Open Graphics Library OpenCL = Open Computing LanguageOpenCLOpenGL是两个不同的API。 OpenGL是3D API。 OpenCL是GPU通用运算API。OpenGL或DirectX是什么呢?是负责3D图形处理的API,包括各种光照、纹理、烟
要写出高效率的CUDA代码,还必须对GPU的硬件系统有整体的了解,不能只停留在软件层面。所以这一篇,我们来介绍一下GPU的硬件结构相关知识,再把软件逻辑层面硬件底层结构结合起来,深入了解一下GPUGPU硬件结构GPU实际上是一个SM的阵列,每个SM包含N个计算核,现在我们的常用GPU中这个数量一般为128或192。一个GPU设备中包含一个或多个SM,这是处理器具有可扩展性的关键因素。如果向设备
作者 | Hardy责编 | 阿秃早期内存通过存储器总线北桥相连,北桥通过前端总线与CPU通信。从Intel Nehalem起,北桥被集成到CPU内部,内存直接通过存储器总线CPU相连。 所以,在AMD采用Socket FM1,Intel采用LGA 1156插槽之后的处理器都集成了北桥,独立的北桥已经消失,主板上仅余下南桥。计算机体系的主要矛盾在于CPU太快了,而磁盘太慢了。所以它俩是不能
 sram vs dram:静态随机访问存储器(Static Random-Access Memory, SRAM)是随机访问存储器的一种。所谓的“静态”,是指这种存储器只要保持通电,里面储存的数据就可以恒常保持。相对之下,动态随机存取存储器(DRAM)里面所储存的数据就需要周期性地更新。动态随机存取存储器(Dynamic Random 
摘要:捷联式惯性导航系统是一种十分先进的惯性导航技术,它采用数学平台代替实体平台,即通过导航计算机实时计算出姿态矩阵,建立起数学平台,所以导航计算机是是整个系统的核心关键.目前,捷联惯导航系统正向高精度,高可靠性,低成本,小型化,数字化的方向发展. DSP(Digital Signal Processor)是现代数字信号处理中的一门新兴技术,作为一种专门的数字信号处理器,它具有高效,高速高精度
  • 1
  • 2
  • 3
  • 4
  • 5