您的位置:首页 > 财经 > 产业 > 六安网页_开发者应用_优化关键词排名提升_广州公司关键词网络推广

六安网页_开发者应用_优化关键词排名提升_广州公司关键词网络推广

2024/11/17 2:29:29 来源:https://blog.csdn.net/ALiLiLiYa/article/details/142666837  浏览:    关键词:六安网页_开发者应用_优化关键词排名提升_广州公司关键词网络推广
六安网页_开发者应用_优化关键词排名提升_广州公司关键词网络推广

 车辆种类分类识别数据集,可以识别7种汽车类型,已经按照7:2:1比 例划分数据集,训练集1488张、验证集507张,测试集31张, 共计2026张。 数据集分为一类客车(tinycar) ,=类客车(midcar) ,三类 客车(bigcar) , - -类货车(smalltruck) ,= _类货车(bigtru ck) ,油罐车(oil truck) 以及特殊车辆(specialcar) ,共计7 个种类。 nc:7. names: ['tinycar'midcar,'bigcar'smalltruck,'bigtruck,'oil truck',' specialcar']

车辆种类识别数据集

规模
  • 图像数量:2026张
  • 类别数量:7种
  • 数据量:未提供具体数据量,但通常这类数据集可能达到数百MB到几GB。
类别
  • 一类客车 (Tiny Car, tinycar)
  • 二类客车 (Mid Car, midcar)
  • 三类客车 (Big Car, bigcar)
  • 一类货车 (Small Truck, smalltruck)
  • 二类货车 (Big Truck, bigtruck)
  • 油罐车 (Oil Truck, oiltruck)
  • 特殊车辆 (Special Car, specialcar)

每类车辆的样本数量根据比例划分:

  • 训练集:1488张
  • 验证集:507张
  • 测试集:31张
数据特点
  • 高质量图像:所有图像均为高分辨率,提供了丰富的细节信息,有助于提高检测精度。
  • 多样化车辆类型:涵盖了七种常见的车辆类型,确保模型能够适应多种类型的车辆。
  • 详细标注:每张图像都附有详细的边界框标注(txt格式),标明了车辆的位置和大小。
  • 预处理数据:数据集已经按照7:2:1的比例划分好训练集、验证集和测试集,可以直接用于训练。
应用场景
  • 智能交通系统:在城市交通监控中自动识别不同类型的车辆,提高交通管理效率。
  • 自动驾驶:帮助自动驾驶汽车更好地理解和分类道路上的各种车辆,提升驾驶安全性。
  • 停车场管理:在停车场管理系统中自动识别车辆类型,便于分类管理和收费。
  • 物流管理:在物流运输过程中,自动识别货车类型,优化货物装载和运输方案。
  • 研究与教育:用于科研机构的研究以及相关院校的教学,帮助学生和研究人员更好地了解车辆识别技术。
  • 安全监控:集成到视频监控系统中,自动识别特定类型的车辆,支持安全监控和预警。

数据集结构

假设数据集的文件结构如下:

 
vehicle_classification_dataset/
├── images/
│   ├── train/
│   │   ├── 0001.jpg
│   │   ├── 0002.jpg
│   │   └── ...
│   ├── val/
│   │   ├── 0001.jpg
│   │   ├── 0002.jpg
│   │   └── ...
│   └── test/
│       ├── 0001.jpg
│       ├── 0002.jpg
│       └── ...
├── labels_txt/
│   ├── train/
│   │   ├── 0001.txt
│   │   ├── 0002.txt
│   │   └── ...
│   ├── val/
│   │   ├── 0001.txt
│   │   ├── 0002.txt
│   │   └── ...
│   └── test/
│       ├── 0001.txt
│       ├── 0002.txt
│       └── ...
└── metadata.csv

metadata.csv 文件内容示例:

 

深色版本

image_id, category, split
train/0001.jpg, tinycar, train
train/0002.jpg, midcar, train
val/0001.jpg, bigcar, val
val/0002.jpg, smalltruck, val
test/0001.jpg, bigtruck, test
...

labels_txt/0001.txt 示例(YOLO格式):

0 0.5 0.5 0.3 0.3  # 类别ID, 中心点x, 中心点y, 宽度, 高度

代码示例

下面是一个完整的Python脚本示例,展示如何加载数据集、使用预训练的YOLOv5模型进行车辆种类识别,并可视化检测结果。我们将使用PyTorch和YOLOv5的相关库。

1. 安装依赖库

首先,确保安装了必要的依赖库。可以在项目目录中的requirements.txt文件中列出这些依赖库,然后运行以下命令进行安装:

pip install -r requirements.txt

requirements.txt 文件内容示例:

torch==1.10.0
torchvision==0.11.1
opencv-python-headless==4.5.4.60
yolov5 @ git+https://github.com/ultralytics/yolov5.git
2. 加载数据集和预训练模型
 
import os
import cv2
import torch
import numpy as np
from yolov5.models.common import DetectMultiBackend
from yolov5.utils.general import (check_img_size, non_max_suppression, scale_coords)
from yolov5.utils.torch_utils import select_device
from yolov5.utils.plots import Annotator, colors# 设置设备
device = select_device('')  # 使用默认设备(通常是GPU,如果没有则使用CPU)# 加载预训练模型
model_path = 'path_to_your_model_directory/yolov5s_vehicle_detection.pt'
model = DetectMultiBackend(model_path, device=device, dnn=False, data=None, fp16=False)
imgsz = check_img_size(640, s=model.stride)  # 检查图像尺寸# 设置模型为评估模式
model.eval()# 加载图像
def load_image(image_path):img = cv2.imread(image_path)if img is None:print(f"Failed to load image: {image_path}")return Nonereturn img# 进行推理
def detect_vehicles(img, model, imgsz, device):# 转换图像img = [letterbox(img, new_shape=imgsz, auto=True)[0]]img = np.stack(img, 0)img = img[..., ::-1].transpose((0, 3, 1, 2))  # BGR to RGB, BHWC to BCHWimg = np.ascontiguousarray(img)# 将图像转换为Tensorimg = torch.from_numpy(img).to(device)img = img.float()img /= 255.0  # 0 - 255 to 0.0 - 1.0if len(img.shape) == 3:img = img[None]  # 扩展批处理维度# 推理with torch.no_grad():pred = model(img, augment=False, visualize=False)[0]pred = non_max_suppression(pred, conf_thres=0.5, iou_thres=0.45, classes=None, agnostic=False, max_det=1000)# 处理预测结果for i, det in enumerate(pred):  # 每张图像的检测结果if len(det):det[:, :4] = scale_coords(img.shape[2:], det[:, :4], img.shape[2:]).round()annotator = Annotator(img[i].permute(1, 2, 0).cpu().numpy(), line_width=3, example=str('vehicle'))for *xyxy, conf, cls in reversed(det):label = f'{names[int(cls)]} {conf:.2f}'annotator.box_label(xyxy, label, color=colors(int(cls), True))return annotator.result()return img[0].permute(1, 2, 0).cpu().numpy()# 字母框调整
def letterbox(img, new_shape=(640, 640), color=(114, 114, 114), auto=True, scaleFill=False, scaleup=True, stride=32):shape = img.shape[:2]  # 当前形状 [height, width]if isinstance(new_shape, int):new_shape = (new_shape, new_shape)r = min(new_shape[0] / shape[0], new_shape[1] / shape[1])if not scaleup:  # 只缩小,不放大r = min(r, 1.0)ratio = r, r  # 宽高比new_unpad = int(round(shape[1] * r)), int(round(shape[0] * r))dw, dh = new_shape[1] - new_unpad[0], new_shape[0] - new_unpad[1]  # wh paddingif auto:  # 最小矩形dw, dh = np.mod(dw, stride), np.mod(dh, stride)  # wh paddingelif scaleFill:  # 拉伸dw, dh = 0.0, 0.0new_unpad = (new_shape[1], new_shape[0])ratio = new_shape[1] / shape[1], new_shape[0] / shape[0]  # 宽高比dw /= 2  # 分配到两边dh /= 2if shape[::-1] != new_unpad:  # 缩放img = cv2.resize(img, new_unpad, interpolation=cv2.INTER_LINEAR)top, bottom = int(round(dh - 0.1)), int(round(dh + 0.1))left, right = int(round(dw - 0.1)), int(round(dw + 0.1))img = cv2.copyMakeBorder(img, top, bottom, left, right, cv2.BORDER_CONSTANT, value=color)  # 添加边框return img, ratio, (dw, dh)# 主函数
def main(image_dir, model, imgsz, device):names = ['tinycar', 'midcar', 'bigcar', 'smalltruck', 'bigtruck', 'oiltruck', 'specialcar']for image_name in os.listdir(image_dir):if image_name.endswith('.jpg'):image_path = os.path.join(image_dir, image_name)img = load_image(image_path)if img is not None:result = detect_vehicles(img, model, imgsz, device)cv2.imshow('Vehicle Detection', result)cv2.setWindowTitle('Vehicle Detection', f'Image: {image_name}')if cv2.waitKey(0) & 0xFF == ord('q'):breakcv2.destroyAllWindows()# 假设图像存储在'image'目录下
image_dir = 'path_to_your_image_directory'# 运行主函数
main(image_dir, model, imgsz, device)

说明

  • 路径设置:请根据实际的数据集路径调整path_to_your_image_directorypath_to_your_model_directory
  • 文件命名:假设图像文件名分别为.jpg。如果实际命名规则不同,请相应修改代码。
  • 可视化:通过绘制边界框和标注置信度,可以直观地看到图像中的车辆位置和类型。

进一步的应用

  • 训练深度学习模型:可以使用这个数据集来进一步训练或微调YOLOv5模型,以提高检测精度。
  • 数据增强:为了增加数据集的多样性和鲁棒性,可以使用数据增强技术(如旋转、翻转、缩放等)生成更多的训练样本。
  • 评估与优化:通过交叉验证和测试集评估模型性能,并不断优化模型参数,以提高检测准确率。

这个数据集对于车辆种类识别具有重要的实用价值,可以帮助相关部门及时发现和处理不同类型车辆,提升交通管理和安全水平。

 

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com