【AI绘画】免费GPU Tesla A100 32G算力部署Stable Diffusion

2024-03-03 12:44

本文主要是介绍【AI绘画】免费GPU Tesla A100 32G算力部署Stable Diffusion,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

免责声明

在阅读和实践本文提供的内容之前,请注意以下免责声明:

  • 侵权问题: 本文提供的信息仅供学习参考,不用做任何商业用途,如造成侵权,请私信我,我会立即删除,作者不对读者因使用本文所述方法而导致的任何损失或损害负责。

  • 信息准确性: 本文提供的信息可能随时更改,作者不保证文中所述方法在未来的软件更新中仍然有效。

  • 个人风险: 读者在按照本文提供的方法操作时,应该自行承担风险。作者不对读者因使用本文所述方法而导致的任何损失或损害负责。

  • 软件兼容性: 本文中提到的软件版本和兼容性可能会受到变化。读者应该在实施前查看相关软件的官方文档,以确保使用的软件版本相互兼容。

  • 个体差异: 不同的计算机环境、操作系统版本和其他因素可能导致实际操作效果有所不同。读者在实践中可能需要进行适当的调整。

  • 建议备份: 在进行重要操作之前,建议读者备份其数据和设置,以防万一发生意外情况。

  • 社区支持: 读者如果遇到问题,建议参考相关软件的官方社区或论坛,以获取更多帮助。

    文章目录

      • 免责声明
      • 1. 引言
        • 1.1 什么是Stable Diffusion
        • 1.2 AI Studio学习与实训社区
      • 2. 注册AI Studio账号
        • 2.1 通过邀请链接注册
        • 2.2 领取免费算力
      • 3. 创建Notebook项目
        • 3.1 选择基础版
        • 3.2 配置环境
      • 4. 拉取Stable Diffusion代码
      • 5. 更换pip镜像
      • 6. 安装依赖
        • 6.1 运行安装脚本
        • 6.2 解决网络问题
      • 7. 内网穿透
        • 7.1 ngrok内网穿透
        • 7.2 natapp内网穿透(国内速度较快)
      • 8. 项目目录结构
        • 8.1 插件保存位置
        • 8.2 模型保存位置
      • 9. 结论
        • 9.1 成功部署Stable Diffusion
        • 9.2 后续探索

1. 引言

1.1 什么是Stable Diffusion

Stable Diffusion是一个基于深度学习的图像生成工具,它使用扩散模型生成高质量的图像。该项目由AUTOMATIC1111开发并在GitHub上开源。

1.2 AI Studio学习与实训社区

AI Studio是百度推出的一个在线AI学习与实训社区,提供免费的GPU算力支持,用户可以在此平台上进行深度学习的项目开发和部署。

2. 注册AI Studio账号

2.1 通过邀请链接注册

点击以下链接注册AI Studio账号:AI Studio注册链接

2.2 领取免费算力

成功注册账号后,点击“我的创作”,可以领取免费算力。

3. 创建Notebook项目

3.1 选择基础版

点击“创建项目”,选择“Notebook”,然后选择“基础版”。

3.2 配置环境

-在这里插入图片描述
创建一个notebook项目

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
选择基础版我们先配环境
在这里插入图片描述在这里插入图片描述

4. 拉取Stable Diffusion代码

在Notebook中运行以下命令,拉取Stable Diffusion代码:

git clone https://gitclone.com/github.com/AUTOMATIC1111/stable-diffusion-webui.git

在这里插入图片描述

5. 更换pip镜像

在Notebook中运行以下命令,更换pip镜像源为阿里云:

mkdir -p ~/.pip
cat <<EOF > ~/.pip/pip.conf
[global]
timeout = 6000
index-url = https://mirrors.aliyun.com/pypi/simple
trusted-host = mirrors.aliyun.com
EOF

如果需要重新生成pip配置文件,可运行以下命令删除原有配置文件:

rm -rf ~/.pip

6. 安装依赖

6.1 运行安装脚本

进入stable-diffusion-webui目录,运行安装脚本:

cd stable-diffusion-webui/
./webui.sh --skip-torch-cuda-test

在这里插入图片描述
这里下载可能非常缓慢,你可以点击链接在本地先下载再上传直接安装whl

这里我发现Stable Diffusion同样恰好通过创建虚拟环境得以可配置PyTorch环境,虚拟环境位于stable-diffusion-webui/models/venv
【深度学习】不用Conda在PP飞桨Al Studio三个步骤安装永久PyTorch环境

或者多次Ctrl+Z重试切换到更好的网络
在这里插入图片描述
这里已经配置成功,可以看到尝试链接huggingface下载初始模型,由于我们连接不上这个网站,所以会一直卡到超时自动结束,你可以在他指定的文件夹创一个同名空文件暂时替代,或者自行上传模型。
/home/aistudio/stable-diffusion-webui/models/新建一个
v1-5-pruned-emaonly.safetensors

在这里插入图片描述
可以看到连接超时后仍然自动运行

6.2 解决网络问题

由于AI Studio的网络环境问题,可能会导致安装过程中下载依赖包很慢或下载失败。可以尝试多次运行安装脚本,或者手动下载依赖包并上传到Notebook中进行安装。

7. 内网穿透

7.1 ngrok内网穿透

https://ngrok.com/
在这里插入图片描述
注册获取<your_authtoken>,不能用QQ邮箱注册
在这里插入图片描述

在Notebook中运行以下命令,下载并安装ngrok:

wget https://bin.equinox.io/c/bNyj1mQVY4c/ngrok-v3-stable-linux-amd64.tgz
chmod +x ngrok
ngrok config add-authtoken  <your_authtoken>
./ngrok http 7860

注意:需要在ngrok官网注册账号并获取authtoken。
在这里插入图片描述

通过内网穿透得到的的Forwarding链接,你可以在任何设备上访问这个网址使用Stable Diffusion
在这里插入图片描述

7.2 natapp内网穿透(国内速度较快)

在Notebook中运行以下命令,下载并安装natapp:

wget https://cdn.natapp.cn/assets/downloads/clients/2_4_0/natapp_linux_amd64/natapp

注意:需要在natapp官网注册账号并获取配置文件。
在这里插入图片描述
natapp要实名认证,提前设置映射端口
在这里插入图片描述
Web协议,7860端口
在这里插入图片描述
注册购买后获得<your_authtoken>

chmod +x natapp
./natapp -authtoken=<your_authtoken>

在这里插入图片描述
通过内网穿透得到的的Forwarding链接,你可以在任何设备上访问这个网址使用Stable Diffusion

在这里插入图片描述

8. 项目目录结构

8.1 插件保存位置

Stable Diffusion的插件保存在stable-diffusion-webui/extensions目录下。

8.2 模型保存位置

Stable Diffusion的模型保存在stable-diffusion-webui/models目录下。
我们看一下项目目录
在这里插入图片描述
插件保存在这
在这里插入图片描述
模型保存在这
在这里插入图片描述

9. 结论

9.1 成功部署Stable Diffusion

按照以上步骤,就可以成功在AI Studio上部署Stable Diffusion,并利用免费的Tesla A100 GPU算力进行AI绘画。

9.2 后续探索

在成功部署Stable Diffusion之后,可以尝试使用不同的模型和插件,进行更多的AI绘画创作。同时,也可以结合其他的深度学习技术,进一步提高生成的图像质量。
你可以通过创建数据集wgetgit下载你需要的模型或插件

这篇关于【AI绘画】免费GPU Tesla A100 32G算力部署Stable Diffusion的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/769656

相关文章

python管理工具之conda安装部署及使用详解

《python管理工具之conda安装部署及使用详解》这篇文章详细介绍了如何安装和使用conda来管理Python环境,它涵盖了从安装部署、镜像源配置到具体的conda使用方法,包括创建、激活、安装包... 目录pytpshheraerUhon管理工具:conda部署+使用一、安装部署1、 下载2、 安装3

k8s部署MongDB全过程

《k8s部署MongDB全过程》文章介绍了如何在Kubernetes集群中部署MongoDB,包括环境准备、创建Secret、创建服务和Deployment,并通过Robo3T工具测试连接... 目录一、环境准备1.1 环境说明1.2 创建 namespace1.3 创建mongdb账号/密码二、创建Sec

Java中的Opencv简介与开发环境部署方法

《Java中的Opencv简介与开发环境部署方法》OpenCV是一个开源的计算机视觉和图像处理库,提供了丰富的图像处理算法和工具,它支持多种图像处理和计算机视觉算法,可以用于物体识别与跟踪、图像分割与... 目录1.Opencv简介Opencv的应用2.Java使用OpenCV进行图像操作opencv安装j

Ubuntu系统怎么安装Warp? 新一代AI 终端神器安装使用方法

《Ubuntu系统怎么安装Warp?新一代AI终端神器安装使用方法》Warp是一款使用Rust开发的现代化AI终端工具,该怎么再Ubuntu系统中安装使用呢?下面我们就来看看详细教程... Warp Terminal 是一款使用 Rust 开发的现代化「AI 终端」工具。最初它只支持 MACOS,但在 20

将Python应用部署到生产环境的小技巧分享

《将Python应用部署到生产环境的小技巧分享》文章主要讲述了在将Python应用程序部署到生产环境之前,需要进行的准备工作和最佳实践,包括心态调整、代码审查、测试覆盖率提升、配置文件优化、日志记录完... 目录部署前夜:从开发到生产的心理准备与检查清单环境搭建:打造稳固的应用运行平台自动化流水线:让部署像

Python项目打包部署到服务器的实现

《Python项目打包部署到服务器的实现》本文主要介绍了PyCharm和Ubuntu服务器部署Python项目,包括打包、上传、安装和设置自启动服务的步骤,具有一定的参考价值,感兴趣的可以了解一下... 目录一、准备工作二、项目打包三、部署到服务器四、设置服务自启动一、准备工作开发环境:本文以PyChar

centos7基于keepalived+nginx部署k8s1.26.0高可用集群

《centos7基于keepalived+nginx部署k8s1.26.0高可用集群》Kubernetes是一个开源的容器编排平台,用于自动化地部署、扩展和管理容器化应用程序,在生产环境中,为了确保集... 目录一、初始化(所有节点都执行)二、安装containerd(所有节点都执行)三、安装docker-

在Ubuntu上部署SpringBoot应用的操作步骤

《在Ubuntu上部署SpringBoot应用的操作步骤》随着云计算和容器化技术的普及,Linux服务器已成为部署Web应用程序的主流平台之一,Java作为一种跨平台的编程语言,具有广泛的应用场景,本... 目录一、部署准备二、安装 Java 环境1. 安装 JDK2. 验证 Java 安装三、安装 mys

Jenkins中自动化部署Spring Boot项目的全过程

《Jenkins中自动化部署SpringBoot项目的全过程》:本文主要介绍如何使用Jenkins从Git仓库拉取SpringBoot项目并进行自动化部署,通过配置Jenkins任务,实现项目的... 目录准备工作启动 Jenkins配置 Jenkins创建及配置任务源码管理构建触发器构建构建后操作构建任务

若依部署Nginx和Tomcat全过程

《若依部署Nginx和Tomcat全过程》文章总结了两种部署方法:Nginx部署和Tomcat部署,Nginx部署包括打包、将dist文件拉到指定目录、配置nginx.conf等步骤,Tomcat部署... 目录Nginx部署后端部署Tomcat部署出现问题:点击刷新404总结Nginx部署第一步:打包