tensorflow2.6.0+annconda4.10.1+cuda11.2+cudnn8.0+pycharm运行tensorflow-gpu版本·

本文主要是介绍tensorflow2.6.0+annconda4.10.1+cuda11.2+cudnn8.0+pycharm运行tensorflow-gpu版本·,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言:安装步骤主要是另一个博主的步骤,我这里主要写一下我安装踩的坑,和采用别的博主的内容。

目录

 1、确定版本

2、安装anaconda

3、安装tensorflow GPU版本

        3.1、创建conda环境

        3.2、安装tensorflow GPU版本

4、安装配置cuda和cudnn

4.1、找到自己想下载的对应的版本。然后进入官网下载cuda和cudnn 

4.2、cuda和cudnn的安装

5、测试(在pycharm中测试)

6、h5py加载出错的问题 


 1、确定版本

        首先你要确定你的GPU是不是能支持你安装tensorflow的GPU版本,如果不能请安装CPU版本,他也能支持你对于tensorflow的简单需求。

        你也可以点击查看你的GPU是否支持CUDA

        选择以上条件之后,你就可以安装Tensorflow了!

2、安装anaconda

        这里直接按照原博主的内容安装配置anaconda设置和环境变量。

3、安装tensorflow GPU版本

        3.1、创建conda环境

                创建环境:conda create -n “环境名” pip python=“你想要的python版本”

                跟随原博客提示完成

                这里创建的是虚拟环境,你可以自由配置你想要的环境,相当于一个独立的工作空间,通过activate 环境名去激活环境,进行操作。

        3.2、安装tensorflow GPU版本

                

                 通过以下命令安装Anaconda基础包

conda install anaconda

                安装GPU版本的tensorflow需要输入以下命令:        

pip install numpy -i https://pypi.tuna.tsinghua.edu.cn/simple

                即可自动下载并安装 numpy 库,配置上国内源的 pip 下载速度会提升显著。 

                如果只需要安装CPU版本的tensorflow则输入以下命令: 

# 使用清华源安装 TensorFlow GPU 版本

pip install -U tensorflow-gpu -i https://pypi.tuna.tsinghua.edu.cn/simple

       

                注意!!!

                配置清华源镜像之后就不要用梯子了,使用梯子就会报错。

                测试tensorflow GPU是否安装成功

                win+R输入cmd进入命令框  先输入python,然后输入python进入python编译环境,然后输入import tensorflow as tf我的环境都已经搭建好了,如下所示:

                要是没有cuda和cudnn则如下所示:

4、安装配置cuda和cudnn

        这里一定要注意cuda,cudnn,python,tensorflow是一定要对应版本下载的,不然就会失败,我最开始下载的cuda和cudnn版本过高没有对应的tensorflow版本所以要重新下载。 

        点击查看最新tensorflow支持的CUDA版本:​​​​​​在 Windows 环境中从源代码构建  |  TensorFlow

这里可能要访问外网,需要梯子。 

4.1、找到自己想下载的对应的版本。然后进入官网下载cuda和cudnn 

        在这个网址查找CUDA已发布版本:https://developer.nvidia.com/cuda-toolkit-archive

一定要注意下载的版本对应问题!!!

         然后选择对应的属性点击download

        下载好CUDA Toolkit 11.2 后,我们开始下载cuDnn 8.0,需要注意的是,下载cuDNN需要在nvidia上注册账号,使用邮箱注册就可以,免费的。登陆账号后才能下载。

         cuDNN历史版本在该网址下载:cuDNN Archive | NVIDIA Developer

        这一步因为注册账号的问题一直下载不到cudnn,所以我这里找到另一个博主的跳过注册登录的步骤直接下载,简单高效。

(6条消息) 无需注册登录NVIDIA官网下载CUDNN_justablackacat的博客-CSDN博客

        根据该博主的步骤可以轻松下载,我这里也是使用的迅雷下载,IDM使用下载不了,所以建议使用迅雷下载。注意版本对应问题!!!

        当我们都下载好时,我们可以开始安装了。

4.2、cuda和cudnn的安装

        CUDA 软件安装 打开 CUDA 程序的下载官网: https://developer.nvidia.com/cuda-10.0-
download-archive ,这里我们使用 CUDA 11.2 版本,依次选择 Windows 平台, x86_64
构,win 10 系统, exe(local) 本地安装包,再选择 Download 即可下载 CUDA 安装软件。
下载完成后,打开安装软件。
        按照下图进行安装:图片上是10.0版本,是在其他地方找的,并没有很大关系,注意自己的版本对应就行了。

 

然后一直next下一步就好了。 

安装完成后,我们来测试 CUDA 软件是否安装成功。打开 cmd 命令行,输入“nvcc - V”,即可打印当前 CUDA 的版本信息。
        下载完成 cuDNN 文件后,解压并进入文件夹,我们将名为“uda”的文件夹重命名为 “
cudnn ”,并复制此文件夹。进入 CUDA 的安装路径 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.2,粘贴“cudnn”文件夹即可,此处可能会弹出需要管理 员权限的对话框,选择继续即可粘贴。

 环境变量 Path 配置

打开文件浏览器,在 “我的电脑”上右击,选择“属性”,选择“高级系统属性”,选择“环境变量”
。在“系统变量”一栏中选中“ Path ”环境变量,选择“编辑”,

        好了结束了        

        并没有什么需要特别注意的地方了,唯一需要注意的就是细心!!!这是一个程序员的基本素质。

5、测试(在pycharm中测试)

        这里我默认你安装好了pycharm,进入pycharm设置你creat的虚拟环境进行测试

        点击file->setting->project->python interprete,然后点击下拉按钮找到你的环境名更换一下就ok

然后点击ok,然后新建test.py文件,然后输入下面代码:

import tensorflow as tftensorflow_version = tf.__version__
gpu_available = tf.test.is_gpu_available()print('tensorflow version:',tensorflow_version, '\tGPU available:', gpu_available)a = tf.constant([1.0, 2.0], name='a')
b = tf.constant([1.0, 2.0], name='b')
result = tf.add(a,b, name='add')
print(result)

         点击运行,这是运行成功

6、h5py加载出错的问题 

        我之前提示许多文件夹没有加载进来,提示出错是h5py.file加载出现问题,我找了几篇博客最后的解决方法是:

        先卸载h5py:pip uninstall h5py

        再安装h5py:pip install h5py

        我是直接卸载之后直接运行成功,我猜测问题出现在最开始的h5py版本过低,然后下载新的版本之后两个版本识别出问题了,最后卸载一下就运行成功了。

      

 

这篇关于tensorflow2.6.0+annconda4.10.1+cuda11.2+cudnn8.0+pycharm运行tensorflow-gpu版本·的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/858252

相关文章

如何用Docker运行Django项目

本章教程,介绍如何用Docker创建一个Django,并运行能够访问。 一、拉取镜像 这里我们使用python3.11版本的docker镜像 docker pull python:3.11 二、运行容器 这里我们将容器内部的8080端口,映射到宿主机的80端口上。 docker run -itd --name python311 -p

Android实现任意版本设置默认的锁屏壁纸和桌面壁纸(两张壁纸可不一致)

客户有些需求需要设置默认壁纸和锁屏壁纸  在默认情况下 这两个壁纸是相同的  如果需要默认的锁屏壁纸和桌面壁纸不一样 需要额外修改 Android13实现 替换默认桌面壁纸: 将图片文件替换frameworks/base/core/res/res/drawable-nodpi/default_wallpaper.*  (注意不能是bmp格式) 替换默认锁屏壁纸: 将图片资源放入vendo

AI Toolkit + H100 GPU,一小时内微调最新热门文生图模型 FLUX

上个月,FLUX 席卷了互联网,这并非没有原因。他们声称优于 DALLE 3、Ideogram 和 Stable Diffusion 3 等模型,而这一点已被证明是有依据的。随着越来越多的流行图像生成工具(如 Stable Diffusion Web UI Forge 和 ComyUI)开始支持这些模型,FLUX 在 Stable Diffusion 领域的扩展将会持续下去。 自 FLU

如何用GPU算力卡P100玩黑神话悟空?

精力有限,只记录关键信息,希望未来能够有助于其他人。 文章目录 综述背景评估游戏性能需求显卡需求CPU和内存系统需求主机需求显式需求 实操硬件安装安装操作系统Win11安装驱动修改注册表选择程序使用什么GPU 安装黑神话悟空其他 综述 用P100 + PCIe Gen3.0 + Dell720服务器(32C64G),运行黑神话悟空画质中等流畅运行。 背景 假设有一张P100-

跨系统环境下LabVIEW程序稳定运行

在LabVIEW开发中,不同电脑的配置和操作系统(如Win11与Win7)可能对程序的稳定运行产生影响。为了确保程序在不同平台上都能正常且稳定运行,需要从兼容性、驱动、以及性能优化等多个方面入手。本文将详细介绍如何在不同系统环境下,使LabVIEW开发的程序保持稳定运行的有效策略。 LabVIEW版本兼容性 LabVIEW各版本对不同操作系统的支持存在差异。因此,在开发程序时,尽量使用

如何在运行时修改serialVersionUID

优质博文:IT-BLOG-CN 问题 我正在使用第三方库连接到外部系统,一切运行正常,但突然出现序列化错误 java.io.InvalidClassException: com.essbase.api.base.EssException; local class incompatible: stream classdesc serialVersionUID = 90314637791991

PostgreSQL中的多版本并发控制(MVCC)深入解析

引言 PostgreSQL作为一款强大的开源关系数据库管理系统,以其高性能、高可靠性和丰富的功能特性而广受欢迎。在并发控制方面,PostgreSQL采用了多版本并发控制(MVCC)机制,该机制为数据库提供了高效的数据访问和更新能力,同时保证了数据的一致性和隔离性。本文将深入解析PostgreSQL中的MVCC功能,探讨其工作原理、使用场景,并通过具体SQL示例来展示其在实际应用中的表现。 一、

InnoDB的多版本一致性读的实现

InnoDB是支持MVCC多版本一致性读的,因此和其他实现了MVCC的系统如Oracle,PostgreSQL一样,读不会阻塞写,写也不会阻塞读。虽然同样是MVCC,各家的实现是不太一样的。Oracle通过在block头部的事务列表,和记录中的锁标志位,加上回滚段,个人认为实现上是最优雅的方式。 而PostgreSQL则更是将多个版本的数据都放在表中,而没有单独的回滚段,导致的一个结果是回滚非

win7+ii7+tomcat7运行javaWeb开发的程序

转载请注明出处:陈科肇 1.前提准备: 操作系统:windows 7 旗舰版   x64 JDK:jdk1.7.0_79_x64(安装目录:D:\JAVA\jdk1.7.0_79_x64) tomcat:32-bit64-bit Windows Service Installer(安装目录:D:\0tomcat7SerV) tomcat-connectors:tomcat-connect

GPU 计算 CMPS224 2021 学习笔记 02

并行类型 (1)任务并行 (2)数据并行 CPU & GPU CPU和GPU拥有相互独立的内存空间,需要在两者之间相互传输数据。 (1)分配GPU内存 (2)将CPU上的数据复制到GPU上 (3)在GPU上对数据进行计算操作 (4)将计算结果从GPU复制到CPU上 (5)释放GPU内存 CUDA内存管理API (1)分配内存 cudaErro