首页
Python
Java
前端
数据库
Linux
Chatgpt专题
开发者工具箱
cuda11专题
【深度学习服务器环境配置】显卡驱动、CUDA11、CUDNN及torch、tensorflow安装
文章目录 丑话说在前一、了解服务器配置1.系统版本信息2.显卡信息 二、安装驱动及CUDA1.驱动安装2.卸载旧CUDA(选)3.CUDA11安装1)下载安装2)配置环境变量3)查看是否安装成功 三、安装CUDNN1.下载2.解压安装3.查看是否安装成功 四、 安装anaconda1.下载安装2.设置环境变量 五、安装深度学习库1.torch安装2.tensorflow安装 总结
阅读更多...
GPT实战系列-ChatGLM3本地部署CUDA11+1080Ti+显卡24G实战方案
目录 一、ChatGLM3 模型 二、资源需求 三、部署安装 配置环境 安装过程 低成本配置部署方案 四、启动 ChatGLM3 五、功能测试 新鲜出炉,国产 GPT 版本迭代更新啦~清华团队刚刚发布ChatGLM3,恰逢云栖大会前百川也发布Baichuan2-192K,一时间掀起的国产AI大模型又一阵热浪来袭。 随着两个公司融资到位,国内大模型研究和开源活动,进展
阅读更多...
GPT实战系列-ChatGLM3部署CUDA11+1080Ti+显卡24G实战方案
目录 一、ChatGLM3 模型 二、资源需求 三、部署安装 配置环境 安装过程 低成本配置部署方案 四、启动 ChatGLM3 五、功能测试 新鲜出炉,国产 GPT 版本迭代更新啦~清华团队刚刚发布ChatGLM3,恰逢云栖大会前百川也发布Baichuan2-192K,一时间掀起的国产AI大模型又一阵热浪来袭。 随着两个公司融资到位,国内大模型研究和开源活动,进展
阅读更多...
GPT实战系列-ChatGLM2部署Ubuntu+Cuda11+显存24G实战方案
GPT实战系列-ChatGLM2部署Ubuntu+Cuda11+显存24G实战方案 自从chatGPT掀起的AI大模型热潮以来,国内大模型研究和开源活动,进展也如火如荼。模型越来越大,如何在小显存部署和使用大模型? 本实战专栏将评估一系列的开源模型,尤其关注国产大模型,重点在于可私有化、轻量化部署,比如推理所需的GPU资源控制在24G显存内。 目录 GPT实战系列-ChatGLM2部署Ub
阅读更多...
windows10 拯救者R7000P 3060的显卡安装 cuda11
很不幸去年寒假回家的时候,发现电脑连不上网,然后拿到维修点检测系统重装系统啥的一通操作导致之前做毕业设计的python环境,java环境全部清零,所以这次重新开始安装,从零开始,准备补充写个手册,方便以后可能要用到。 第一步:检查显卡支持的cuda版本 1.第一种方法:win+R打开cmd,输入nvidia-smi,我的显卡是nvidia 3060,支持的cuda版本是11.5 2.
阅读更多...