一、云端GPU服务器
在学习过程中发现:tensorflow 2.3.0 要求GPU算力最小为3.5,而我的 GTX 760 显卡算力才3.0,无法使用GPU。
所以找到了一个云端GPU服务器租用平台(AutoDL),而且创建实例后默认已经装好了cuda、cudnn、python、tensorflow,开箱即用,爽的一批,推荐使用云端GPU环境。
创建实例后直接ssh登上去使用就ok,简直不要太爽,一小时5毛钱值了。
二、本地安装(windows平台)
安装必看
在【NVIDIA控制面板】->【系统信息】->【组件】界面,可以看到显卡最高支持的CUDA版本,这里我的破显卡RTX 3060 Ti 最高支持 cuda11.7版本:
接着,根据显卡最高支持的CUDA版本,来综合选择你所能使用的tensorflow版本。
在 tensortflow 环境搭建中,需要时刻注意python版本、cuda版本、cudnn版本、tensorflow版本之间的一致性,并且遵守:主版本号不要跨越,次版本号可以略高。。
比如这里我的显卡最高支持的CUDA版本是11.7,所以我可以安装2.6.0版本的tensorflow-gpu(下文用tf代替),我这里选择装CUDA 11.2,也是OK的。
确定CUDA装11.2后,就只能装8.1版本的cuDNN for 11.2。
所以本文中作者的环境版本是:
- CUDA:11.2
- cuDNN:7.6.5 for CUDA 10.2
- Python:3.6
- tensorflow-gpu:2.6.0
下面的参考图来自官网:https://tensorflow.google.cn/install/source_windows#gpu。
1. anaconda
下载地址:https://www.anaconda.com/products/individual
下载完成之后一路next进行安装:
检查版本:
2. CUDA
CUDA 11.2 要求显卡驱动 450.80.02 或更高版本。
(1)下载CUDA(11.2版本)下载地址:https://developer.nvidia.com/cuda-11.2.0-download-archive
(2)安装 CUDA(自定义方式安装)设置临时解压路径:
等待系统检查通过,同意许可协议:
选择自定义安装:
去掉对Visual Studio的支持(用不到):
检查CUDA自带的显卡驱动版本与电脑当前版本号,如果低于则取消显卡驱动安装,否则显卡驱动安装会失败:
进入下一步,保持默认路径:
继续点击下一步开始安装:
安装完成:
检查是否安装成功:
确认一下cupti:
(3)安装cuDNN(Deep Neural Network library)(版本:cuDNN v8.1.1 (Feburary 26th, 2021), for CUDA 11.0,11.1 and 11.2)
下载地址:https://developer.nvidia.com/cudnn。
下载后解压,重命名为cudnn,复制到CUDA安装路径下,如图:
将cudnn下的bin目录配置到环境变量PATH并置顶:
再将之前cupti库的目录也添加到环境变量并置顶:
一路确定退出,然后重启电脑生效。
3. tensorflow
打开anaconda的命令行环境进行安装。
换阿里源:
pip config set global.index-url https://mirrors.aliyun.com/pypi/simple/
创建新环境:
conda create -n tf_study python=3.9
激活新环境:
conda avtivate tf_study
在新环境中安装tensorflow-gpu版本:
# gpu版本
pip install tensorflow-gpu==2.6.0
安装完之后测试:
import tensorflow as tf
测试GPU是否配置成功:
tf.config.list_physical_devices('GPU')
成功导入,找到GPU,结果如下:
4. pycharm
(1)下载安装
下载地址:https://www.jetbrains.com/pycharm/
下载之后直接安装即可。
(2)配置在Pycharm创建项目时,配置解释器为conda中的解释器: