实现使用mxnet GPU 的步骤: | 步骤 | 描述 | | ------ | ------ | | 1 | 安装CUDA和cuDNN | | 2 | 安装mxnet | | 3 | 配置环境变量 | | 4 | 测试mxnet GPU 支持 | ### 步骤一:安装CUDA和cuDNN 首先,我们需要安装CUDA和cuDNN来支持mxnetGPU上的运行。CUDA是NVIDIA的并行计
原创 2024-05-17 09:31:47
200阅读
1. 查看一下自己的cuda版本 cuda=10.2 而我这边的python版本为3.6 有点难办,如果使用国内源的话,mxnet最新版本为10.1 也就是说10.2的版本是找不到的 然后我就百度,查博客,看了很多篇文章,发现很多都是10.1,9.0版本的,找不到10.2版本 无奈之下在哪去官网看看经过一番查找后,找到了下载地址打开网站,往下找找就可以找到使用pip的下载地址 有三个pip 第一个
Pangolin: An Efficient and Flexible Graph Mining System on CPU and GPUPangolin: 一个高效灵活的基于 CPU 和 GPU 的图挖掘系统 [Paper] [Slides] [Code] VLDB’20摘要一个针对共享内存CPU和GPU的内存图模式挖掘(Graph Pattern Mining, GPM)框架. 第一个为GP
转载 2024-03-24 10:32:20
56阅读
  前段时间工作中用到了MXnet,然而MXnet的文档写的实在是.....所以在这记录点东西,方便自己,也方便大家。 一、MXnet的安装及使用  开源地址:https://github.com/dmlc/mxnet  如下是单节点的具体安装和实验流程,参考于官方文档:http://mxnt.ml/en/latest/build.html#building-on-linux  1.1、
转载 2024-05-13 20:36:56
55阅读
写在前面  由于Windows自身对这些软件的兼容性一言难尽,而重新搭载虚拟机的过程又过于麻烦,因此笔者另辟蹊径,使用在Microsoft Store上的WSL来完成Linux环境的配置,同时结合VS Code来避免图形化界面的安装,尽量让Linux环境轻量级,同时也保证了代码高亮等更专业友好的开发环境。具体安装步骤主要分以下几步:在Microsoft Store下载安装Ubuntu WSL配置V
文章最前: 我是Octopus,这个名字来源于我的中文名--章鱼;我热爱编程、热爱算法、热爱开源。所有源码在我的个人github ;这博客是记录我学习的点点滴滴,如果您对 Python、Java、AI、算法有兴趣,可以关注我的动态,一起学习,共同进步。相关文章:LeetCode:55. Jump Game(跳远比赛)Leetcode:300. Longest Increasing Sub
文章目录1、英伟达显卡驱动安装2、cuda9.0安装3、cudnn的安装4、anaconda安装5、安装TensorFlow和Keras 安装 1、英伟达显卡驱动安装第一步:如果不是重新装的系统,就要把旧的驱动删掉;如果是新装的系统,就不用管了。 第二步:禁止自带的nouveau nvidia驱动。我的电脑原本是没有这个文件的,所以需要先创建这个文件的。在终端执行:sudo touch /etc
下面我们来了解一些GPU memory的知识,主要参考资料:http://fgiesen.wordpress.com/0211/07/02/a-trip-through-the-graphics-pipeline-2011-part-2   下面我们看下memory 如何与GPU和 host连接,了解video memory的工作flow:   &
转载 2024-05-01 22:58:53
85阅读
  聚类是信息检索、数据挖掘中的一类重要技术,是分析数据并从中发现有用信息的一种有效手段。它将数据对象分组成为多个类或簇,使得在同一个簇中的对象之间具有较高的相似度,而不同簇中的对象差别很大。作为统计学的一个分支和一种无监督的学习方法,聚类从数学分析的角度提供了一种准确、细致的分析工具。而k-means算法是最常用和最典型的聚类算法之一,k-means算法是典型的基于距离的聚类算法,采用距离作为相
转载 2024-03-18 14:27:48
192阅读
在之前,我在win10上装了cuda11.0以及tf-gpu2.4.1,然后我的后续踩坑之路来了,在安装mxnet遇到了很多错误。目前仅安装上了cpu版本,gpu未试探出来,只能默默等开发者把cuda11.0的windows版本的mxnet-gpu开发出来了。 以下记录我的踩坑之路以及如何装上mxnet的cpu版本。(gpu目前还是没安上,以下有针对安gpu的一些失败问题与尝试)最重要的话就是:目
转载 2024-05-07 10:52:36
854阅读
 1. 基本数据结构  和pytorch等中的tensor类似,mxnet中的ndarray或者nd,用来操作矩阵或者张量数据。基本操作类似于Numpy, 支持计算,索引等。      创建矩阵from mxnet import nd #或者 from mxnet import ndarray as nd #创建矩阵 x1 = nd.array([[1
转载 2024-04-25 11:08:35
148阅读
 写这篇博文的初衷是希望能整理下自己在使用MxNet过程中对这个框架的理解。详细的介绍都给出了链接,这篇相当于一个概括,希望能对这个框架有一个总的认识,内容会不断补充,有疑问的欢迎交流,谢谢。     1、下载MxNet并编译     MxNet的官方网址:http://mxnet.io/get_s
最近有项目要用mxnet,要从头开始配置mxnet,记录一下全过程,先说下在Windows 10下的安装GPU版本的问题。查看cuda版本首先要查看一下自己安装 的cuda版本,一般情况下可以使用nvcc --version或nvidia-smi -q指令,比如我的是10.1版,C:\Users\SpaceVision>nvcc --version nvcc: NVIDIA (R) Cuda
最近有项目要用mxnet,要从头开始配置mxnet,记录一下全过程,先说下在Windows 10下的安装GPU版本的问题。查看cuda版本首先要查看一下自己安装 的cuda版本,一般情况下可以使用nvcc --version或nvidia-smi -q指令,比如我的是10.1版,C:\Users\SpaceVision>nvcc --versionnvcc: NVIDIA (R) Cuda compiler driverCopyright (c) 2005-2019 NVIDIA C
原创 2022-01-25 16:26:46
7183阅读
最近有项目要用mxnet,要从头开始配置mxnet,记录一下全过程,先说下在Windows 10下的安装GPU版本的问题。查看cuda版本首先要查看一下自己安装 的cuda版本,一般情况下可以使用nvcc --version或nvidia-smi -q指令,比如我的是10.1版,C:\Users\SpaceVision>nvcc --versionnvcc: NVIDIA (R) Cuda compiler driverCopyright (c) 2005-2019 NVIDIA C
原创 2021-07-14 16:14:37
1372阅读
安装MXNET由于公司需要,近期需要快速精通mxnet,接下来的几个星期会陆续更新关于mxnet的笔记,提供参考和备忘。第一篇介绍mxnet的安装,mxnet的安装过程十分蛋疼,个人也是摸索了许久才安装成功,期间也是遇到了各种奇奇怪怪的坑,为了避免新人少走弯路,遂将经验总结于此。windows上的安装本人机器配置为Win10 + Cuda 7.5, 后续的安装以此为准。 1.mxnet需要VS20
此处假设树莓派基础配置(初始化、网络等)已经配置完成。 下面,开始进入正式环节。1 换源及更新1.1 编辑 /etc/apt/sources.list 文件在终端执行如下命令sudo nano /etc/apt/sources.list(对于nano,它是一个字符终端的文本编辑器,有点像DOS下的editor程序。它比vi/vim要简单得多,比较适合Linux初学者使用。)先将其中的原有的源注释掉
转载 2024-09-12 07:45:57
33阅读
其中蓝色部分为改动的()说明:本文记录时间为2017.7.23。在此时Tensorflow在Win下的安装要求为系统64位且Python版本为3.5(现已经支持py 3.6),MXNet在Win下只支持Python 2。  更新说明:在8月19日发布了Tensorflow1.3.0后,cudnn支持6.0而不再支持5.1,所以一定要选对版本哦。一.安装Anaconda 由于Mxnet在w
上节用了Sequential类来构造模型。这里我们另外一种基于Block类的模型构造方法,它让构造模型更加灵活,也将让你能更好的理解Sequential的运行机制。回顾:序列模型生成层填充初始化模型参数net = gluon.nn.Sequential() with net.name_scope(): net.add(gluon.nn.Dense(1)) net.collect_param
去年Imagination发布了其最新的C系列的GPU,通过多核拓展的方式,提供了更好的性能表现、设计灵活性和成本优势,成功杀入桌面GPU和数据中心市场。到今年,几家中国GPU黑马厂商相继快速推出了GPU产品,其中也有Imagination的GPU IP的影子在里面。一系列的收购、高层人事变动等大型调整,完全没有影响到Imagination的产品研发节奏,这家GPU IP供应商在三年时间内相继完成
  • 1
  • 2
  • 3
  • 4
  • 5