2000字范文,分享全网优秀范文,学习好帮手!
2000字范文 > XML格式数据集转TXT(YOLO)

XML格式数据集转TXT(YOLO)

时间:2024-01-05 15:05:26

相关推荐

XML格式数据集转TXT(YOLO)

我从网上下载了一个数据集(underwater)它们提供了xml格式的数据,但是我想用yolov5进行训练,所以需要将xml格式转化为txt格式。

正常的xml格式的数据集可以参考

目标检测中将已有的.xml数据集转换成.txt数据集(附代码,归一化后供YOLO格式使用)_orangezs的博客-CSDN博客

但是,我下载的数据集有点不同,它的xml文件中没有size属性,而且还标注了我们不需要的类别

这里我参考了下面几个人的博客

PyTorch版YOLOv4训练自己的数据集---基于Google Colab-python黑洞网

获取VOC数据集xml标注文件的各类别的个数,更改类别名,删除某一类_静候:花开的博客-CSDN博客

【脚本工具】python修改xml文件中类别的名称和删除指定的类别_超级无敌陈大佬的跟班的博客-CSDN博客【目标检测适用】批量修改xml文件中的name字段_*pprp*的博客-CSDN博客_修改xml的name

最终问题得以解决,再附上我自己修改过的代码

MAKE TXT

import osxmlfilepath = './Annotations'txtsavepath = './ImageSets'total_xml = os.listdir(xmlfilepath)num = len(total_xml)list = range(num)train = open('./ImageSets/train.txt', 'w')for i in list:name = total_xml[i][:-4] + '\n'train.write(name)train.close()

delete_xml

import osimport xml.etree.ElementTree as ETyuan_dir = './Annotations' # 设置原始标签路径为 Annosnew_dir = './new_xml' # 设置新标签路径 Annotationsfor filename in os.listdir(yuan_dir):file_path = os.path.join(yuan_dir, filename)new_path=os.path.join(new_dir,filename)dom = ET.parse(file_path)root = dom.getroot()for obj in root.findall('object'): # 获取object节点中的name子节点if obj.find('name').text == 'waterweeds':root.remove(obj)#print("change %s to %s." % (yuan_name, new_name1))# elif obj.find('name').text== 'a':#root.remove(obj)##可以继续删除,继续用elif语句# 保存到指定文件dom.write(new_path, xml_declaration=True)

xml2txt

# xml解析包import xml.etree.ElementTree as ETimport pickleimport os# os.listdir() 方法用于返回指定的文件夹包含的文件或文件夹的名字的列表from os import listdir, getcwdfrom os.path import joinimport cv2sets = ['train']classes = ["holothurian", "echinus", "scallop", "starfish"] ##修改为自己的类别 # 自己训练的类别images = r"./images"# 进行归一化操作def convert(size, box): # size:(原图w,原图h) , box:(xmin,xmax,ymin,ymax)dw = 1./size[0]# 1/wdh = 1./size[1]# 1/hx = (box[0] + box[1])/2.0 # 物体在图中的中心点x坐标y = (box[2] + box[3])/2.0 # 物体在图中的中心点y坐标w = box[1] - box[0] # 物体实际像素宽度h = box[3] - box[2] # 物体实际像素高度x = x*dw # 物体中心点x的坐标比(相当于 x/原图w)w = w*dw # 物体宽度的宽度比(相当于 w/原图w)y = y*dh # 物体中心点y的坐标比(相当于 y/原图h)h = h*dh # 物体宽度的宽度比(相当于 h/原图h)return (x, y, w, h) # 返回 相对于原图的物体中心点的x坐标比,y坐标比,宽度比,高度比,取值范围[0-1]# year ='', 对应图片的id(文件名)def convert_annotation(image_id):'''将对应文件名的xml文件转化为label文件,xml文件包含了对应的bunding框以及图片长款大小等信息,通过对其解析,然后进行归一化最终读到label文件中去,也就是说一张图片文件对应一个xml文件,然后通过解析和归一化,能够将对应的信息保存到唯一一个label文件中去labal文件中的格式:calss x y w h同时,一张图片对应的类别有多个,所以对应的bunding的信息也有多个'''# 对应的通过year 找到相应的文件夹,并且打开相应image_id的xml文件,其对应bund文件in_file = open('./new_xml/%s.xml' % (image_id), encoding='utf-8')# print(in_file.name)# 准备在对应的image_id 中写入对应的label,分别为# <object-class> <x> <y> <width> <height>out_file = open('./labels/%s.txt' % (image_id), 'w', encoding='utf-8')# print(out_file.name)# 解析xml文件tree = ET.parse(in_file)# 获得对应的键值对root = tree.getroot()# 获得图片的尺寸大小# size = root.find('size')# # 获得宽# w = int(size.find('width').text)# # 获得高# h = int(size.find('height').text)img = cv2.imread(images + "/" + image_id + '.jpg')w = int(img.shape[1])h = int(img.shape[0])# # 遍历目标objfor obj in root.iter('object'):cls = obj.find('name').text# if cls = waterweedsif cls not in classes == 1:continuecls_id = classes.index(cls)xmlbox = obj.find('bndbox')b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text),float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))bb = convert((w, h), b)out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')# 返回当前工作目录wd = getcwd()print(wd)for image_set in sets:'''对所有的文件数据集进行遍历做了两个工作:1.讲所有图片文件都遍历一遍,并且将其所有的全路径都写在对应的txt文件中去,方便定位2.同时对所有的图片文件进行解析和转化,将其对应的bundingbox 以及类别的信息全部解析写到label 文件中去最后再通过直接读取文件,就能找到对应的label 信息'''# 先找labels文件夹如果不存在则创建if not os.path.exists('./labels/'):os.makedirs('./labels/')# 读取在ImageSets/Main 中的train、test..等文件的内容# 包含对应的文件名称image_ids = open('./ImageSets/%s.txt' % (image_set)).read().strip().split()# 打开对应的_train.txt 文件对其进行写入准备list_file = open('./%s.txt' % (image_set), 'w')# 将对应的文件_id以及全路径写进去并换行for image_id in image_ids:list_file.write('./images/%s.jpg\n' % (image_id))# 调用 year = 年份 image_id = 对应的文件名_idconvert_annotation(image_id)# 关闭文件list_file.close()

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。