您的位置:首页 > 游戏 > 手游 > 产品线下推广活动方案_房地产查询官网_免费发外链的网站_优化的意思

产品线下推广活动方案_房地产查询官网_免费发外链的网站_优化的意思

2025/4/7 20:23:27 来源:https://blog.csdn.net/python_yjys/article/details/146918879  浏览:    关键词:产品线下推广活动方案_房地产查询官网_免费发外链的网站_优化的意思
产品线下推广活动方案_房地产查询官网_免费发外链的网站_优化的意思

文章目录

  • Ultralytics YOLO COCO 评估脚本 (coco_evaluate.py)
    • 1. 描述
    • 2. 依赖项
    • 3. 使用方法
    • 4. 输入文件格式
    • 5. 输出
    • 6. 注意
    • 7. 完整代码

Ultralytics YOLO COCO 评估脚本 (coco_evaluate.py)

这是一个 Python 脚本,用于评估以 COCO JSON 格式提供的目标检测结果。它利用官方的 pycocotools 库来计算标准的 COCO 评估指标。

1. 描述

该脚本接收一个包含真实标注(Ground Truth)的 COCO JSON 文件和一个包含模型预测结果的 COCO 格式 JSON 文件作为输入。然后,它使用 pycocotools API 来执行评估过程,并最终将标准的 12 个 COCO 评估指标(包括 AP、AP50、AP75、AP across scales、AR across max detections、AR across scales 等)打印到控制台。

2. 依赖项

在运行此脚本之前,请确保已安装必要的 Python 库:

  • Python 3.x
  • pycocotools: 这是 COCO 官方提供的 API。
  • numpy: pycocotools 的依赖项。

你可以使用 pip 安装它们:

pip install numpy pycocotools

3. 使用方法

通过命令行运行此脚本。你需要提供标注文件和预测结果文件的路径。

python coco_evaluate.py --annotations <标注文件路径> --predictions <预测文件路径>

参数说明:

  • --annotations: 必需。指向 COCO 格式的 JSON 标注文件的路径(例如 instances_val2017.json)。
  • --predictions: 必需。指向包含模型预测结果的 JSON 文件的路径。此文件必须遵循 COCO 的结果提交格式(一个 JSON 列表,每个元素包含 image_id, category_id, bbox, 和 score)。

示例:

假设你的标注文件位于 data/coco/annotations/instances_val2017.json,预测结果文件位于 runs/detect/exp1/predictions.json,你可以这样运行:

python coco_evaluate.py --annotations data/coco/annotations/instances_val2017.json --predictions runs/detect/exp1/predictions.json

4. 输入文件格式

  1. 标注文件 (--annotations): 标准的 COCO JSON 格式文件,通常包含 info, licenses, images, annotations, categories 等字段。

  2. 预测文件 (--predictions): 一个 JSON 文件,其内容是一个列表(list)。列表中的每个元素是一个字典(dict),代表一个检测到的目标,必须包含以下键:

    • image_id: 对应标注文件中图像的 ID(整数)。
    • category_id: 检测到的目标的类别 ID(整数),必须与标注文件中的类别 ID 对应。
    • bbox: 检测到的边界框,格式为 [x, y, width, height],其中 x, y 是左上角坐标。
    • score: 模型对该检测结果的置信度分数(浮点数)。

    示例 predictions.json 的片段:

    [{"image_id": 42,"category_id": 18,"bbox": [258.15, 41.29, 348.26, 243.78],"score": 0.997},{"image_id": 73,"category_id": 1,"bbox": [61.87, 222.53, 410.64, 176.95],"score": 0.994},...
    ]
    

5. 输出

脚本执行后,会将标准的 COCO 评估结果摘要打印到控制台(标准输出)。输出格式类似于:

 Average Precision  (AP) @[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = 0.xxxAverage Precision  (AP) @[ IoU=0.50      | area=   all | maxDets=100 ] = 0.xxxAverage Precision  (AP) @[ IoU=0.75      | area=   all | maxDets=100 ] = 0.xxxAverage Precision  (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.xxxAverage Precision  (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.xxxAverage Precision  (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.xxxAverage Recall     (AR) @[ IoU=0.50:0.95 | area=   all | maxDets=  1 ] = 0.xxxAverage Recall     (AR) @[ IoU=0.50:0.95 | area=   all | maxDets= 10 ] = 0.xxxAverage Recall     (AR) @[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = 0.xxxAverage Recall     (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.xxxAverage Recall     (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.xxxAverage Recall     (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.xxx

其中 0.xxx 会被实际计算出的指标值替换。

6. 注意

  • 确保提供的预测文件中的 category_id 与标注文件中的类别 ID 映射一致。
  • 脚本目前只评估 bbox(边界框检测),如果需要评估实例分割 (segm) 或关键点 (keypoints),需要修改 COCOeval 初始化时的 iouType 参数。

7. 完整代码

#!/usr/bin/env python
# -*- coding: utf-8 -*-"""python coco_evaluate.py  --annotations path\instances_val2017.json  --predictions path\predictions.json"""import argparse
import json
import os
from pathlib import Pathimport numpy as np
from pycocotools.coco import COCO
from pycocotools.cocoeval import COCOevaldef evaluate_coco(pred_json, anno_json):"""使用pycocotools评估COCO格式的检测结果参数:pred_json: 预测结果的JSON文件路径anno_json: COCO格式的标注文件路径返回:stats: 评估结果统计"""print(f"\n正在评估 COCO 指标,使用 {pred_json}{anno_json}...")# 检查文件是否存在for x in [pred_json, anno_json]:assert os.path.isfile(x), f"文件 {x} 不存在"# 初始化COCO APIanno = COCO(str(anno_json))  # 初始化标注APIpred = anno.loadRes(str(pred_json))  # 初始化预测API (必须传递字符串,而非Path对象)# 进行bbox评估eval_bbox = COCOeval(anno, pred, 'bbox')eval_bbox.evaluate()eval_bbox.accumulate()eval_bbox.summarize()def main():parser = argparse.ArgumentParser(description='评估COCO格式的目标检测结果')parser.add_argument('--annotations', type=str, required=True, help='COCO格式的标注文件路径')parser.add_argument('--predictions', type=str, required=True, help='预测结果的JSON文件路径')args = parser.parse_args()# 确保文件路径存在pred_json = Path(args.predictions)anno_json = Path(args.annotations)# 评估并打印结果stats = evaluate_coco(pred_json, anno_json)if __name__ == '__main__':main() 

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com