【AI绘画】免费GPU Tesla A100 32G算力部署Stable Diffusion

2024-03-03 12:44

本文主要是介绍【AI绘画】免费GPU Tesla A100 32G算力部署Stable Diffusion,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

免责声明

在阅读和实践本文提供的内容之前,请注意以下免责声明:

  • 侵权问题: 本文提供的信息仅供学习参考,不用做任何商业用途,如造成侵权,请私信我,我会立即删除,作者不对读者因使用本文所述方法而导致的任何损失或损害负责。

  • 信息准确性: 本文提供的信息可能随时更改,作者不保证文中所述方法在未来的软件更新中仍然有效。

  • 个人风险: 读者在按照本文提供的方法操作时,应该自行承担风险。作者不对读者因使用本文所述方法而导致的任何损失或损害负责。

  • 软件兼容性: 本文中提到的软件版本和兼容性可能会受到变化。读者应该在实施前查看相关软件的官方文档,以确保使用的软件版本相互兼容。

  • 个体差异: 不同的计算机环境、操作系统版本和其他因素可能导致实际操作效果有所不同。读者在实践中可能需要进行适当的调整。

  • 建议备份: 在进行重要操作之前,建议读者备份其数据和设置,以防万一发生意外情况。

  • 社区支持: 读者如果遇到问题,建议参考相关软件的官方社区或论坛,以获取更多帮助。

    文章目录

      • 免责声明
      • 1. 引言
        • 1.1 什么是Stable Diffusion
        • 1.2 AI Studio学习与实训社区
      • 2. 注册AI Studio账号
        • 2.1 通过邀请链接注册
        • 2.2 领取免费算力
      • 3. 创建Notebook项目
        • 3.1 选择基础版
        • 3.2 配置环境
      • 4. 拉取Stable Diffusion代码
      • 5. 更换pip镜像
      • 6. 安装依赖
        • 6.1 运行安装脚本
        • 6.2 解决网络问题
      • 7. 内网穿透
        • 7.1 ngrok内网穿透
        • 7.2 natapp内网穿透(国内速度较快)
      • 8. 项目目录结构
        • 8.1 插件保存位置
        • 8.2 模型保存位置
      • 9. 结论
        • 9.1 成功部署Stable Diffusion
        • 9.2 后续探索

1. 引言

1.1 什么是Stable Diffusion

Stable Diffusion是一个基于深度学习的图像生成工具,它使用扩散模型生成高质量的图像。该项目由AUTOMATIC1111开发并在GitHub上开源。

1.2 AI Studio学习与实训社区

AI Studio是百度推出的一个在线AI学习与实训社区,提供免费的GPU算力支持,用户可以在此平台上进行深度学习的项目开发和部署。

2. 注册AI Studio账号

2.1 通过邀请链接注册

点击以下链接注册AI Studio账号:AI Studio注册链接

2.2 领取免费算力

成功注册账号后,点击“我的创作”,可以领取免费算力。

3. 创建Notebook项目

3.1 选择基础版

点击“创建项目”,选择“Notebook”,然后选择“基础版”。

3.2 配置环境

-在这里插入图片描述
创建一个notebook项目

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
选择基础版我们先配环境
在这里插入图片描述在这里插入图片描述

4. 拉取Stable Diffusion代码

在Notebook中运行以下命令,拉取Stable Diffusion代码:

git clone https://gitclone.com/github.com/AUTOMATIC1111/stable-diffusion-webui.git

在这里插入图片描述

5. 更换pip镜像

在Notebook中运行以下命令,更换pip镜像源为阿里云:

mkdir -p ~/.pip
cat <<EOF > ~/.pip/pip.conf
[global]
timeout = 6000
index-url = https://mirrors.aliyun.com/pypi/simple
trusted-host = mirrors.aliyun.com
EOF

如果需要重新生成pip配置文件,可运行以下命令删除原有配置文件:

rm -rf ~/.pip

6. 安装依赖

6.1 运行安装脚本

进入stable-diffusion-webui目录,运行安装脚本:

cd stable-diffusion-webui/
./webui.sh --skip-torch-cuda-test

在这里插入图片描述
这里下载可能非常缓慢,你可以点击链接在本地先下载再上传直接安装whl

这里我发现Stable Diffusion同样恰好通过创建虚拟环境得以可配置PyTorch环境,虚拟环境位于stable-diffusion-webui/models/venv
【深度学习】不用Conda在PP飞桨Al Studio三个步骤安装永久PyTorch环境

或者多次Ctrl+Z重试切换到更好的网络
在这里插入图片描述
这里已经配置成功,可以看到尝试链接huggingface下载初始模型,由于我们连接不上这个网站,所以会一直卡到超时自动结束,你可以在他指定的文件夹创一个同名空文件暂时替代,或者自行上传模型。
/home/aistudio/stable-diffusion-webui/models/新建一个
v1-5-pruned-emaonly.safetensors

在这里插入图片描述
可以看到连接超时后仍然自动运行

6.2 解决网络问题

由于AI Studio的网络环境问题,可能会导致安装过程中下载依赖包很慢或下载失败。可以尝试多次运行安装脚本,或者手动下载依赖包并上传到Notebook中进行安装。

7. 内网穿透

7.1 ngrok内网穿透

https://ngrok.com/
在这里插入图片描述
注册获取<your_authtoken>,不能用QQ邮箱注册
在这里插入图片描述

在Notebook中运行以下命令,下载并安装ngrok:

wget https://bin.equinox.io/c/bNyj1mQVY4c/ngrok-v3-stable-linux-amd64.tgz
chmod +x ngrok
ngrok config add-authtoken  <your_authtoken>
./ngrok http 7860

注意:需要在ngrok官网注册账号并获取authtoken。
在这里插入图片描述

通过内网穿透得到的的Forwarding链接,你可以在任何设备上访问这个网址使用Stable Diffusion
在这里插入图片描述

7.2 natapp内网穿透(国内速度较快)

在Notebook中运行以下命令,下载并安装natapp:

wget https://cdn.natapp.cn/assets/downloads/clients/2_4_0/natapp_linux_amd64/natapp

注意:需要在natapp官网注册账号并获取配置文件。
在这里插入图片描述
natapp要实名认证,提前设置映射端口
在这里插入图片描述
Web协议,7860端口
在这里插入图片描述
注册购买后获得<your_authtoken>

chmod +x natapp
./natapp -authtoken=<your_authtoken>

在这里插入图片描述
通过内网穿透得到的的Forwarding链接,你可以在任何设备上访问这个网址使用Stable Diffusion

在这里插入图片描述

8. 项目目录结构

8.1 插件保存位置

Stable Diffusion的插件保存在stable-diffusion-webui/extensions目录下。

8.2 模型保存位置

Stable Diffusion的模型保存在stable-diffusion-webui/models目录下。
我们看一下项目目录
在这里插入图片描述
插件保存在这
在这里插入图片描述
模型保存在这
在这里插入图片描述

9. 结论

9.1 成功部署Stable Diffusion

按照以上步骤,就可以成功在AI Studio上部署Stable Diffusion,并利用免费的Tesla A100 GPU算力进行AI绘画。

9.2 后续探索

在成功部署Stable Diffusion之后,可以尝试使用不同的模型和插件,进行更多的AI绘画创作。同时,也可以结合其他的深度学习技术,进一步提高生成的图像质量。
你可以通过创建数据集wgetgit下载你需要的模型或插件

这篇关于【AI绘画】免费GPU Tesla A100 32G算力部署Stable Diffusion的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/769656

相关文章

SpringBoot中整合RabbitMQ(测试+部署上线最新完整)的过程

《SpringBoot中整合RabbitMQ(测试+部署上线最新完整)的过程》本文详细介绍了如何在虚拟机和宝塔面板中安装RabbitMQ,并使用Java代码实现消息的发送和接收,通过异步通讯,可以优化... 目录一、RabbitMQ安装二、启动RabbitMQ三、javascript编写Java代码1、引入

ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法

《ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法》本文介绍了Elasticsearch的基本概念,包括文档和字段、索引和映射,还详细描述了如何通过Docker... 目录1、ElasticSearch概念2、ElasticSearch、Kibana和IK分词器部署

部署Vue项目到服务器后404错误的原因及解决方案

《部署Vue项目到服务器后404错误的原因及解决方案》文章介绍了Vue项目部署步骤以及404错误的解决方案,部署步骤包括构建项目、上传文件、配置Web服务器、重启Nginx和访问域名,404错误通常是... 目录一、vue项目部署步骤二、404错误原因及解决方案错误场景原因分析解决方案一、Vue项目部署步骤

Spring AI集成DeepSeek的详细步骤

《SpringAI集成DeepSeek的详细步骤》DeepSeek作为一款卓越的国产AI模型,越来越多的公司考虑在自己的应用中集成,对于Java应用来说,我们可以借助SpringAI集成DeepSe... 目录DeepSeek 介绍Spring AI 是什么?1、环境准备2、构建项目2.1、pom依赖2.2

Linux流媒体服务器部署流程

《Linux流媒体服务器部署流程》文章详细介绍了流媒体服务器的部署步骤,包括更新系统、安装依赖组件、编译安装Nginx和RTMP模块、配置Nginx和FFmpeg,以及测试流媒体服务器的搭建... 目录流媒体服务器部署部署安装1.更新系统2.安装依赖组件3.解压4.编译安装(添加RTMP和openssl模块

0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型的操作流程

《0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeekR1模型的操作流程》DeepSeekR1模型凭借其强大的自然语言处理能力,在未来具有广阔的应用前景,有望在多个领域发... 目录0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型,3步搞定一个应

redis群集简单部署过程

《redis群集简单部署过程》文章介绍了Redis,一个高性能的键值存储系统,其支持多种数据结构和命令,它还讨论了Redis的服务器端架构、数据存储和获取、协议和命令、高可用性方案、缓存机制以及监控和... 目录Redis介绍1. 基本概念2. 服务器端3. 存储和获取数据4. 协议和命令5. 高可用性6.

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

Spring AI Alibaba接入大模型时的依赖问题小结

《SpringAIAlibaba接入大模型时的依赖问题小结》文章介绍了如何在pom.xml文件中配置SpringAIAlibaba依赖,并提供了一个示例pom.xml文件,同时,建议将Maven仓... 目录(一)pom.XML文件:(二)application.yml配置文件(一)pom.xml文件:首

nginx部署https网站的实现步骤(亲测)

《nginx部署https网站的实现步骤(亲测)》本文详细介绍了使用Nginx在保持与http服务兼容的情况下部署HTTPS,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值... 目录步骤 1:安装 Nginx步骤 2:获取 SSL 证书步骤 3:手动配置 Nginx步骤 4:测