yolov7:安装配置以及训练自己的数据集

1.安装并测试yolov7

1.下载yolov7源码及yolov7权重

源码和权重在github上下载,权重下载完放在yolov7源码根目录

https://github.com/WongKinYiu/yolov7

不方便的下载百度云连接:

链接:https://pan.baidu.com/s/1eT2dkvYJBxwIER1bGNtGZQ 提取码:ytkm

下载完源码和权重后在pycharm中打开。

2.环境配置

在Anconda中创造Yolov7环境:

激活Yolov7环境 并安装Yolov7所需各种包,采用清华镜像源安装所需包,在终端中执行命令

activate yolov7

pip install -r F:\objectdet\yolov7-main/requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

将requirements.txt路径改为源码中requirements.txt所在路径。

如果完全按照requirements.txt来安装的话,你会发现安装的torch版本并不是gpu版本,所以得重新安装gpu版本的才能用你的gpu来训练Yolov7

安装pytorch

进入pytorch官网:Start Locally | PyTorch

根据版本选择,然后在终端中输入红框所示指令 在终端中输入pip list查看安装的包

在pycharm中安装环境

3.测试

运行detect.py,可进行测试。

测试文件在inference文件夹下,可修改测试内容

2.样本标注软件labelimg的安装和使用

1.安装labelimg:ctrl+R输入cmd打开终端输入命令行快速安装。

pip install labelimg -i https://pypi.tuna.tsinghua.edu.cn/simple

2.打开labelimg:在命令行中输入快速打开。

labelimg

3.基本使用方法:

主要操作:打开软件后选择标注图片目录和存放标注XML格式文件目录,按W画框框住目标后进行标注,将目标逐一标注完后按D切换至下一张,保存文件为XML格式,可用文本编辑器打开。 基本快捷键:按W快捷键画框,按A和D切换下一张,ctrl+滚轮调整图片大小,左键拖动,ctrl+S保存。 建议设置:建议打开自动保存方便保存和显示标注框和标签防止标错。

注意:如果在labelimg中打不开XML文件可能是新旧版本问题,可尝试将路径改为英文路径。

3.训练自己的数据

1.转换数据

我们需要将用标注软件生成的XML格式文件转为TXT文件。

我们先根据以下格式创建文件夹。 将图片和标注文件分别放到images和Annotations文件夹中。

运行代码text_yolo.py,代码如下,注意修改class_names,xmlpath,txtpath。

import os.path

import xml.etree.ElementTree as ET

class_names = ['0','1','2','3','4','5','6','7','8','A','B','C','D','E','F','G','H','I','J','K','L',

'M','N','O','P','Q','R','S','T','U','V','W','X','Y','Z','&']

xmlpath = "D:\\Downloads\\yolov7-main\\VOCData\\Annotations\\" # 原xml路径

txtpath = "D:\\Downloads\\yolov7-main\\VOCData\\txts\\" # 转换后txt文件存放路径

files = []

if not os.path.exists(txtpath):

os.makedirs(txtpath)

for root, dirs, files in os.walk(xmlpath):

None

number = len(files)

#number = 409 # 若无法识别可手动输入数据集数量

print(number)

i = 0

while i < number:

name = files[i][0:-4]

xml_name = name + ".xml"

txt_name = name + ".txt"

print(name)

xml_file_name = xmlpath + xml_name

txt_file_name = txtpath + txt_name

xml_file = open(xml_file_name,"rb")

tree = ET.parse(xml_file)

root = tree.getroot()

# filename = root.find('name').text

# image_name = root.find('filename').text

w = int(root.find('size').find('width').text)

h = int(root.find('size').find('height').text)

f_txt = open(txt_file_name, 'w+')

content = ""

first = True

for obj in root.iter('object'):

name = obj.find('name').text

class_num = class_names.index(name)

xmlbox = obj.find('bndbox')

x1 = int(xmlbox.find('xmin').text)

x2 = int(xmlbox.find('xmax').text)

y1 = int(xmlbox.find('ymin').text)

y2 = int(xmlbox.find('ymax').text)

if first:

content += str(class_num) + " " + \

str((x1 + x2) / 2 / w) + " " + str((y1 + y2) / 2 / h) + " " + \

str((x2 - x1) / w) + " " + str((y2 - y1) / h)

first = False

else:

content += "\n" + \

str(class_num) + " " + \

str((x1 + x2) / 2 / w) + " " + str((y1 + y2) / 2 / h) + " " + \

str((x2 - x1) / w) + " " + str((y2 - y1) / h)

# print(str(i / (number - 1) * 100) + "%\n")

print(content)

f_txt.write(content)

f_txt.close()

xml_file.close()

i += 1

TXT文件夹结果: 左边数字表示类的序号

2.划分训练集和验证集

在ImagesSets/Main下生成train.txt,val.txt。

运行代码split_train_val.py,代码如下,注意修改xmlfilepath,saveBasePath。

import os

import random

random.seed(0)

xmlfilepath = 'D:\\Downloads\\yolov7-main\\VOCData\\Annotations'

saveBasePath ='D:\\Downloads\\yolov7-main\\VOCData\\ImageSets\\main'

# ----------------------------------------------------------------------#

# 想要增加测试集修改trainval_percent

# train_percent不需要修改

# ----------------------------------------------------------------------#

trainval_percent = 1

train_percent = 0.8

temp_xml = os.listdir(xmlfilepath)

total_xml = []

for xml in temp_xml:

if xml.endswith(".xml"):

total_xml.append(xml)

num = len(total_xml)

list = range(num)

tv = int(num * trainval_percent)

tr = int(tv * train_percent)

trainval = random.sample(list, tv)

train = random.sample(trainval, tr)

print("train and val size", tv)

print("traub suze", tr)

ftrainval = open(os.path.join(saveBasePath, 'trainval.txt'), 'w')

ftest = open(os.path.join(saveBasePath, 'test.txt'), 'w')

ftrain = open(os.path.join(saveBasePath, 'train.txt'), 'w')

fval = open(os.path.join(saveBasePath, 'val.txt'), 'w')

for i in list:

name = total_xml[i][:-4] + '\n'

if i in trainval:

ftrainval.write(name)

if i in train:

ftrain.write(name)

else:

fval.write(name)

else:

ftest.write(name)

ftrainval.close()

ftrain.close()

fval.close()

ftest.close()

3.生成最终结果

根据train.txt和val.txt将图片和txt分别复制到labels和images。

运行代码clauculate_anchors.py,代码如下,注意修改各种路径,以及图片的后缀名。

import os

import shutil

from tqdm import tqdm

SPLIT_PATH = "D:\\Downloads\\yolov7-main\\VOCData\\ImageSets\\main\\"

IMGS_PATH = "D:\\Downloads\\yolov7-main\\VOCData\\images\\"

TXTS_PATH = "D:\\Downloads\\yolov7-main\\VOCData\\txts\\"

TO_IMGS_PATH = "D:\\Downloads\\yolov7-main\\VOCData\\lesson\\images\\"

TO_TXTS_PATH = "D:\\Downloads\\yolov7-main\\VOCData\\lesson\\labels\\"

data_split = ['train.txt', 'val.txt']

to_split = ['train2017', 'val2017']

for index, split in enumerate(data_split):

split_path = os.path.join(SPLIT_PATH, split)

to_imgs_path = os.path.join(TO_IMGS_PATH, to_split[index])

if not os.path.exists(to_imgs_path):

os.makedirs(to_imgs_path)

to_txts_path = os.path.join(TO_TXTS_PATH, to_split[index])

if not os.path.exists(to_txts_path):

os.makedirs(to_txts_path)

f = open(split_path, 'r')

count = 1

for line in tqdm(f.readlines(), desc="{} is copying".format(to_split[index])):

# 复制图片

src_img_path = os.path.join(IMGS_PATH, line.strip() + '.bmp')

dst_img_path = os.path.join(to_imgs_path, line.strip() + '.bmp')

if os.path.exists(src_img_path):

shutil.copyfile(src_img_path, dst_img_path)

else:

print("error file: {}".format(src_img_path))

# 复制txt标注文件

src_txt_path = os.path.join(TXTS_PATH, line.strip() + '.txt')

dst_txt_path = os.path.join(to_txts_path, line.strip() + '.txt')

if os.path.exists(src_txt_path):

shutil.copyfile(src_txt_path, dst_txt_path)

else:

print("error file: {}".format(src_txt_path))

最终结果:

Lesion/images/train2017 中存放的是所有训练图片

Lesion/images/val2017 中存放的是所有验证图片

Lesion/labels/train2017 中存放的是所有训练图片的目标框txt

Lesion/labels/val2017 中存放的是所有验证图片的目标框txt

4.创建myData.yaml

在data文件夹中复制一份coco.yaml重命名为myData.yaml,以此为蓝本修改训练集,验证集,类数,类名。 注意train.py中使用的权重 修改使用权重中类数 根据计算机的性能选择黄框内参数,如果报错out of memory 错误,可能是电脑显存不足,也可能是cuda自身限制函数。可以将调低batch-size,至少为1或者将图片大小调小。其他参数可以参照我的数据修改,主要修改红框数据。 设置完成无误后运行train.py,开始训练,结果保存在runs/train/exp下。

5.测试

训练完后用detect.py进行测试,修改权重和路径,将权重改为训练所得pt文件(结果在runs/train/exp/weights/下) #### 6.生成onnx格式文件

1.安装依赖库:

在打开终端命令行中快速安装:

pip install onnx coremltools onnx-simplifier

2.生成onnx格式文件:

打开终端在命令行中输入:

python models/export.py --weights runs\train\exp7\weights\best.pt --img 640 --batch 1

python models/export.py --weights ..\runs\train\exp7\weights\best.pt --include onnx

img-q45V08nG-1681695911482)]

6.生成onnx格式文件

1.安装依赖库:

在打开终端命令行中快速安装:

pip install onnx coremltools onnx-simplifier

2.生成onnx格式文件:

打开终端在命令行中输入:

python models/export.py --weights runs\train\exp7\weights\best.pt --img 640 --batch 1

python models/export.py --weights ..\runs\train\exp7\weights\best.pt --include onnx

注意修改训练得到的pt文件路径,生成onnx文件是pt文件大小的两倍左右,如果不是可能是哪里有问题。

好文链接

评论可见,请评论后查看内容,谢谢!!!评论后请刷新页面。