yolov8实战第一天——yolov8部署并训练自己的数据集(保姆式教程)

2023-12-15 17:52

本文主要是介绍yolov8实战第一天——yolov8部署并训练自己的数据集(保姆式教程),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

​​​​​​yolov8实战第二天——yolov8训练结果分析(保姆式解读)-CSDN博客 

YOLOv8是一种基于深度神经网络的目标检测算法,它是YOLO(You Only Look Once)系列目标检测算法的最新版本。YOLOv8的主要改进包括:

  1. 更高的检测精度:通过引入更深的卷积神经网络和更多的特征层,YOLOv8可以在保持实时性的同时提高检测精度。

  2. 更快的检测速度:通过对模型进行优化,YOLOv8可以在不降低检测精度的情况下提高检测速度。

  3. 支持更多的检测任务:除了传统的物体检测任务之外,YOLOv8还支持人脸检测、车辆检测等更多的检测任务。

  4. 更易于训练和部署:YOLOv8采用了更加简单的网络结构和训练策略,使得它更易于训练和部署。

YOLOv8是一个非常强大的目标检测算法,它在准确性、速度和易用性方面都具有很大的优势,因此在工业界和学术界都受到了广泛的关注和应用。

一、yolov8部署

说明:请严格安装部署步骤。

第一步、显卡驱动查看 nvidia-smi 


第二步、yolo8代码下载

https://github.com/ultralytics/ultralytics 


第三步、cuda及cudnn安装

https://developer.nvidia.com/cuda-toolkit-archive https://developer.nvidia.com/rdp/cudnn-archive 


第四步、安装anaconda

https://www.anaconda.com/download

环境变量设置(安装在哪里就找那个路径):


第五步、创建python环境

conda create -n yolo python==3.11 

conda环境操作指南:

查看现有环境 conda env list  激活失败 conda init cmd.exe删除环境 conda env remove -n yolo 


第六步、激活环境

一定要选择命令提示符。

activate yolo

以后每次使用都要激活该环境。


第七步、安装pytorch

https://pytorch.org/

我是cuda12.0,所以安装cuda11.8版本。 

conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia


第八步、安装库

pip install ultralytics -i https://pypi.tuna.tsinghua.edu.cn/simple


第九步、推理检测

yolo predict model=yolov8n.pt source=bus.jpg

图片名自己设置,自动下载模型yolov8n.pt,结果在runs文件夹中。

第十步、训练

yolo train data=coco128.yaml model=yolov8n.pt epochs=10 lr0=0.01

自动训练下载数据集datasets,报错,设置安装anaconda所在盘的虚拟内存。

二、yolov8训练自己的数据集

第一步、数据准备

在yolov8中建立datasets文件夹,然后建立数据集文件夹mydata。

mydata中是imges图片文件和label标注后的Annotations xml文件夹和imageSets。 

其中使用makeTxt.py,给数据分类trian val test。

import os
import randomtrainval_percent = 0.1
train_percent = 0.9
xmlfilepath = './Annotations'
txtsavepath = './ImageSets'
total_xml = os.listdir(xmlfilepath)num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)ftrainval = open('./ImageSets/trainval.txt', 'w')
ftest = open('./ImageSets/test.txt', 'w')
ftrain = open('./ImageSets/train.txt', 'w')
fval = open('./ImageSets/val.txt', 'w')for i in list:name = total_xml[i][:-4] + '\n'if i in trainval:ftrainval.write(name)if i in train:ftest.write(name)else:fval.write(name)else:ftrain.write(name)ftrainval.close()
ftrain.close()
fval.close()
ftest.close()

运行后ImageSets文件夹生成四个txt。 

再使用voc_label.py,将数据转换成label格式。修改自己的类,逗号隔开,我训练的就一个“老鼠”类。

import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import joinsets=[('train'), ('test'),('val')]classes = ["mouse"]def convert(size, box):dw = 1./(size[0])dh = 1./(size[1])x = (box[0] + box[1])/2.0 - 1y = (box[2] + box[3])/2.0 - 1w = box[1] - box[0]h = box[3] - box[2]x = x*dww = w*dwy = y*dhh = h*dhreturn (x,y,w,h)def convert_annotation(image_id):in_file = open('Annotations/%s.xml'%(image_id))out_file = open('labels/%s.txt'%( image_id), 'w')tree=ET.parse(in_file)root = tree.getroot()size = root.find('size')w = int(size.find('width').text)h = int(size.find('height').text)for obj in root.iter('object'):# difficult = obj.find('difficult').textcls = obj.find('name').text# if cls not in classes or int(difficult)==1:if cls not in classes:continuecls_id = classes.index(cls)xmlbox = obj.find('bndbox')b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))bb = convert((w,h), b)out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')wd = getcwd()for image_set in sets:if not os.path.exists('labels/'):os.makedirs('labels/')image_ids = open('ImageSets/%s.txt'%(image_set)).read().strip().split()list_file = open('%s.txt'%(image_set), 'w')for image_id in image_ids:list_file.write('%s/images/%s.jpg\n'%(wd,image_id))convert_annotation(image_id)list_file.close()#os.system("cat 2008_train.txt > train.txt")
#os.system("cat 2008_train.txt 2008_val.txt > train.txt")
#os.system("cat 2008_train.txt 2008_val.txt 2008_test.txt> train.txt")#os.system("cat 2014_train.txt 2014_val.txt 2012_train.txt 2012_val.txt > train.txt")
#os.system("cat 2007_train.txt 2007_val.txt 2007_test.txt 2012_train.txt 2012_val.txt > train.all.txt")

运行后生成labels文件夹和三个txt。

至此数据准备工作完成,开始训练。 

第二步、训练

建立一个yaml文件

shu.yaml

train: datasets/mydata/train.txt
val: datasets/mydata/val.txt# Classes
names:0: mouse

训练指令:

yolo train data=shu.yaml model=yolov8n.pt epochs=100 lr0=0.01 

至此训练完成。 在runs中生成训练结果和训练模型。

训练结果分析:yolov8实战第二天——yolov8训练结果分析(保姆式解读)-CSDN博客

第三步、测试 

使用训练后的模型进行测试。

测试指令:

yolo predict model=runs/detect/train12/weights/best.pt source=datasets/mydata/images/mouse-4-6-0004.jpg

这篇关于yolov8实战第一天——yolov8部署并训练自己的数据集(保姆式教程)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/497336

相关文章

网页解析 lxml 库--实战

lxml库使用流程 lxml 是 Python 的第三方解析库,完全使用 Python 语言编写,它对 XPath表达式提供了良好的支 持,因此能够了高效地解析 HTML/XML 文档。本节讲解如何通过 lxml 库解析 HTML 文档。 pip install lxml lxm| 库提供了一个 etree 模块,该模块专门用来解析 HTML/XML 文档,下面来介绍一下 lxml 库

闲置电脑也能活出第二春?鲁大师AiNAS让你动动手指就能轻松部署

对于大多数人而言,在这个“数据爆炸”的时代或多或少都遇到过存储告急的情况,这使得“存储焦虑”不再是个别现象,而将会是随着软件的不断臃肿而越来越普遍的情况。从不少手机厂商都开始将存储上限提升至1TB可以见得,我们似乎正处在互联网信息飞速增长的阶段,对于存储的需求也将会不断扩大。对于苹果用户而言,这一问题愈发严峻,毕竟512GB和1TB版本的iPhone可不是人人都消费得起的,因此成熟的外置存储方案开

Spring Security 从入门到进阶系列教程

Spring Security 入门系列 《保护 Web 应用的安全》 《Spring-Security-入门(一):登录与退出》 《Spring-Security-入门(二):基于数据库验证》 《Spring-Security-入门(三):密码加密》 《Spring-Security-入门(四):自定义-Filter》 《Spring-Security-入门(五):在 Sprin

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

基于MySQL Binlog的Elasticsearch数据同步实践

一、为什么要做 随着马蜂窝的逐渐发展,我们的业务数据越来越多,单纯使用 MySQL 已经不能满足我们的数据查询需求,例如对于商品、订单等数据的多维度检索。 使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。而数据进行异构存储后,随之而来的就是数据同步的问题。 二、现有方法及问题 对于数据同步,我们目前的解决方案是建立数据中间表。把需要检索的业务数据,统一放到一张M

关于数据埋点,你需要了解这些基本知识

产品汪每天都在和数据打交道,你知道数据来自哪里吗? 移动app端内的用户行为数据大多来自埋点,了解一些埋点知识,能和数据分析师、技术侃大山,参与到前期的数据采集,更重要是让最终的埋点数据能为我所用,否则可怜巴巴等上几个月是常有的事。   埋点类型 根据埋点方式,可以区分为: 手动埋点半自动埋点全自动埋点 秉承“任何事物都有两面性”的道理:自动程度高的,能解决通用统计,便于统一化管理,但个性化定

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

异构存储(冷热数据分离)

异构存储主要解决不同的数据,存储在不同类型的硬盘中,达到最佳性能的问题。 异构存储Shell操作 (1)查看当前有哪些存储策略可以用 [lytfly@hadoop102 hadoop-3.1.4]$ hdfs storagepolicies -listPolicies (2)为指定路径(数据存储目录)设置指定的存储策略 hdfs storagepolicies -setStoragePo

Hadoop集群数据均衡之磁盘间数据均衡

生产环境,由于硬盘空间不足,往往需要增加一块硬盘。刚加载的硬盘没有数据时,可以执行磁盘数据均衡命令。(Hadoop3.x新特性) plan后面带的节点的名字必须是已经存在的,并且是需要均衡的节点。 如果节点不存在,会报如下错误: 如果节点只有一个硬盘的话,不会创建均衡计划: (1)生成均衡计划 hdfs diskbalancer -plan hadoop102 (2)执行均衡计划 hd

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件