这是一个重要的历史时刻,2019年8月23日,华为正式发布算力最强的AI处理器Ascend 910(910),以及全场景AI计算框架MindSpore。随着最后两块拼图的拼接完成,华为全栈全场景AI解决方案的蓝图已经完整呈现。接下来,华为的工作可以分成两个主要方向:一是在全栈全场景AI解决方案的框架下继续丰富和完善产品和解决方案,为“普惠AI”的落地提供助力和支撑;二是打造全栈全场景AI生态,
转载 2023-12-20 10:23:00
448阅读
前言在之前的文章中,我们已经分别实现了: 1、使用rtsp传输h.264视频流的功能(即局域网视频监控功能) 2、基于yolov5这个开源项目进行目标检测,实现简单的垃圾分类功能 3、最后一篇文章拖了好久才更新有点对不起大家,主要自己五月份开始就忙毕业的事情了, 之后又是疫情啥的,再加上前段时间公司入职,所以一直在忙其他的事情,就没有更新,今天 周末双休抽空更新一下。一、功能融合  接下来我们要将
原标题:华为服务器产品线升级为智能计算业务部新京报讯(记者 马婧)12月21日,华为在北京召开了首届华为智能计算大会。会上,华为IT产品线总裁侯金龙宣布,华为服务器升级为华为智能计算,聚焦行业智能化的转型。华为智能计算业务部总裁邱隆介绍了Atlas智能计算平台等产品与解决方案,并首次公开展示自研的基于ARM架构的处理器芯片Hi1620。媒体群访环节,邱隆表示,该ARM处理器芯片并不会单独销售,会通
 ?作者:天海奈奈目录1 Linux大致了解a Linux发行版本b  选择建议2CentOS版本选择及基础要求a CentOS版本选择b CentOS 7 运行要求3 VMware 的下载与安装a 下载b 安装c 检验是否开启cpu虚拟化 4 安装CentOS7操作系统a 下载b 安装c 使用前最后的初始设置 1 Linux大致了解a
背景参考自:《HiMPP V3.0 媒体处理软件开发参考.pdf》由于在音视频处理领域,芯片占有全球市场的很大份额。当我们选择使用芯片开发时,程序开发模型主要是围绕HIMPP(Hisi Media Process Platform)提供的API进行。这里围绕主角HIMPP详细介绍与它相关的专业词汇与背景知识,对HIMPP有充分了解之后,我们就可以利用它实现音视频编解码等业务逻辑。本文主要讲
转载 2023-12-05 09:19:43
51阅读
一、参考资料PyTorch用户文档 PyTorch网络模型移植&训练指南AscendPyTorch第三方框架适配二、重要说明CPU架构为ARM架构时,由于社区未提供ARM架构CPU版本的torch包,无法使用PIP3命令安装PyTorch1.8.1,需要使用源码编译安装。三、相关介绍1. PyTorch Adapter1.1 问题引入通常,开发者基于PyTorch框架开发的AI模型不能直接
转载 2024-01-17 07:20:40
283阅读
关于Atlas 200DKAtlas 200DK是华为推出的一款基于310芯片的NPU处理器。该芯片主要用于AI推理计算。 Atlas是大力神的意思,难道这个寓意是”大力出奇迹?“。 DK是Developer Kit的缩写,意为开发套件。关于处理器310算力很强悍,高达22TPos的算力。助力开发者实现一站式的AI应用开发。 处理器在ARM上增加了达芬奇架构,以外围AI加速器来
转载 2024-01-21 09:10:11
78阅读
参考:https://blog.51cto.com/shugenyin/1851232由于前一段时间一直在搞的芯片,所以最近就想对自己在这一块做一个总结一座备份,主要的参考还是的文档。就芯片来说,文档确实很多,对于初学者有很大的帮助。所以对于初学者来说,文档肯定是第一手的参考资料。ISP的概述:文档是这样描述的:ISP 通过一系列数字图像处理算法完成对数字图像的效果处理。主要包
安装相关的库:pip install tensorboardX pip install tensorboard # 这一个是你安装pytorch时就安装好的,可以检查一下,没有就重新安装 并将tensorboard.exe所在的文件夹路径加入环境变量path中(1.如果你没有用couda,比如tensorboard.exe的路径为D:\Python376\Scripts\tensorb
近日,AI联合浦江实验室,正式实现OpenMMLab算法仓库在的异构计算架构CANN上的推理部署,目前相关代码已推入MMDeploy 0.10.0版本,并在GitHub正式发布。
原创 2022-12-14 10:37:52
318阅读
1点赞
# 使用Docker进行深度学习模型的部署 在当今人工智能(AI)领域,深度学习模型的训练和部署变得愈发重要。(Ascend)是华为推出的一款AI处理器,能够显著提高深度学习模型的运行效率。结合Docker技术,你可以轻松地在平台上部署深度学习模型,提升开发的灵活性和便捷性。本文将为您详细介绍基于Docker的模型部署,并带有实际的代码示例。 ## 什么是和Docker?
原创 9月前
271阅读
本文旨在浅析Al计算平台CANN的逻辑架构CANN平台Al计算为我们提供了一个平台,叫做CANN (Compute Architecture for Neural Network)“专门为神经网络设计的计算框架”CANN平台由计算加速库、芯片算子库和高度自动化的算子开发工具等组成CANN逻辑架构CANN平台的逻辑架构芯片使能层实现解决方案对外能力开放,以及基于计算图的业务流的控制和运行。芯
转载 2024-06-06 15:14:43
197阅读
# 300i Pro Docker部署指南 在这个指南中,我们将会逐步向你展示如何在300i Pro上使用Docker进行部署。整个流程可以分为以下几个主要步骤: | 步骤 | 描述 | |------|------| | 1 | 安装Docker | | 2 | 获取300i Pro支持的Docker镜像 | | 3 | 创建Docker容器 | | 4 | 运行Docker容器
原创 8月前
368阅读
实验内容本实验通过模型转換、数据预处理/络模型加载/推理/结果输出全流程屐示处理器推理应用开发过程,帮助您快速熟悉ACL这套计算加速库。实验目标:了解华为全栈开发工具 Mindstudio 及其离线模型转换功能了解如何使用 ACL 开发基于华为处理器的神经网络推理应用实验流程总览:1.准备环境1.1.预置环境 点击上方“预置实验环境”按钮,【约等待1-3分钟】后预置成功。环境预置会生成
一、参考资料基于CANN的推理应用开发快速体验(C++)基于CANN的推理应用开发——图片分类应用(C&C++)二、重要说明CANN软件提供进程级环境变量设置脚本,供用户在进程中引用,以自动完成环境变量设置。# 例如 /home/ma-user/Ascend/ascend-toolkit/set_env.sh物理机场景下,一个Device上最多只能支持64个用户进程,Host最多只
一、参考资料Ubuntu ssh 配置ssh远程连接docker通过ssh登录docker容器二、相关介绍AscendHub镜像仓库AscendHub镜像仓库是腾开放Docker镜像仓库,提供软件Docker镜像,包括MindX DL镜像,推理镜像,训练镜像,操作系统,其他等,支持用户快速部署基础软件和应用软件。三、关键步骤3.1 SSH连接Ascend服务器3.2 下载As
9月中旬,双路塔式服务器除了联想停产了TD340之外,其他厂商的机型保持不变;价格方面稳中有下降。一、调查机型双路塔式服务器机型种类繁多,型号数量丰富,有几十款之多。主要厂商的代表机型有:惠普的ML150Gen9和ML350 Gen9;戴尔的T430和T630;联想的TD350,以及X系列的x3500M5;浪潮NP5020M3、NP5540M3、NP5570M4和NP5580M3;中科曙光的I45
转载 2024-07-16 20:13:38
61阅读
随着AI应用领域的持续拓展以及应用场景的不断细化,衍生出了非常多且复杂的AI芯片及硬件产品线,同一任务同一场景下的硬件选择也变得更为丰富。但对于深度学习开发者而言,众多的硬件产品形态无疑也引入了更多的兼容性问题和不确定性因素,增加了算法研发和落地部署阶段的开发难度。面对这样多元化的芯片和硬件市场,飞桨在支持多硬件的统一平台这一路线的探索上也一直走在行业前列。如今基于飞桨训练和推理部署框架,已完成多
解压后的文件夹包含5个子文件夹,每个子文件夹的名称为一种花的名称,代表了不同的类别。 工程目录:-transfer_learning -flower_data //存放原始图片的文件夹,有5个子文件夹, 每个子文件夹的名称为一种花的名称 -daisy //daisy类花图片的文件夹 -dandelion -roses
作者:好名字学长 经过长达一个月的复现,终于成功利用MindSpore复现了SwinTransformer在imagenet上的分类精度,中间踩过很多的坑,这个帖子就作为复现SwinTransformer的记录贴,希望能对大家复现2021年这种充满训练Trick的论文有所帮助。 复现着复现着突然Swin就拿了最佳论文了,当时感觉也非常有意思,突然就在复现ICCV2021的最佳论文了,模型的效果的确
  • 1
  • 2
  • 3
  • 4
  • 5