Skip to content

LIU42/FlowerClassify

Repository files navigation

Flower Classify

基于 ResNet 的花卉分类识别系统,能有效区分 10 中不同类别的花卉。 [English]

项目简介

本项目为一个基础的花卉分类识别系统,采用 ResNet18 作为主干网络,包含模型的训练、测试以及线上部署(提供容器化部署)。

  • 基于 PyTorch 框架进行模型的训练及测试。

  • 模型采用 ONNX 格式部署,采用 ONNX Runtime 进行推理。

  • 基于 Flask 框架实现 Web 接口。

  • 使用 Docker 进行容器化部署。

训练数据集来自 Kaggle,融合了多个数据集并进行了数据清洗,基于预训练模型进行训练,在当前数据集下准确率超过 98%。

使用说明

安装环境依赖

首先使用 pip 安装如下的依赖:

# 推理部署环境依赖
opencv-python~=4.10.0.84
numpy~=1.23.4
Flask~=3.0.3
PyYAML~=6.0
onnxruntime~=1.14.1

# 训练环境依赖
torch~=2.4.0
torchvision~=0.19.0
onnx~=1.16.2

注:使用 pip 安装 opencv-python 可能会出现依赖不全的问题,推荐使用系统包管理器安装。

启动 Web 服务

本项目 Web 服务的默认配置文件为 configs/server.yaml,其中各个属性对应的含义如下:

precision: "fp32"            # 推理运算精度,"fp32"(单精度)或 "fp16"(半精度)
providers:                   # ONNX Runtime Providers 参数
  - "CPUExecutionProvider"

flower-names:                # 花卉分类名称列表,包含所有花卉类别对应的标签(按顺序)
  - "Bellflower"
  - "Carnation"
  ...

将模型权重文件放入 inferences/models/ 目录后,执行以下命令启动 Web 服务:

flask --app inferences.server run --host="0.0.0.0" --port=9500

Web 服务接口描述如下:

/*
 * URL: http://<your-server-address>:9500/flowerclassify
 * METHOD: POST
 * BODY: form-data
 *   image: 待识别图像文件
 */

// 返回结果示例 (JSON):
{
    "name": "Rose",
    "confidence": "1.000"
}

模型训练与评估

若要使用自己的数据集训练模型,准备好数据集、调整好模型输出格式后:

  1. 根据需要调整 configs/train.yaml 中的各项参数,运行 train.py 即可开始训练,配置属性对应的含义如下:

    device: "cpu"            # 设备名称,与 PyTroch 的设备名称保持一致
    epochs: 50               # 训练迭代次数
    learning-rate: 0.0002    # 学习率
    batch-size: 32           # 批大小
    num-workers: 0           # DataLoader 加载子进程数
    num-classes: 10          # 模型分类类别数
    
    load-checkpoint: false         # 是否加载 checkpoint 继续训练,若为 true 则从 load-path 加载模型权重,反之则使用初始化模型权重开始训练
    load-pretrained: true          # 是否使用预训练参数初始化模型权重
    
    load-path: "checkpoints/last.pt"        # 待训练模型路径
    best-path: "checkpoints/best.pt"        # 当前验证集上最优模型保存路径
    last-path: "checkpoints/last.pt"        # 最后一次迭代模型保存路径
  2. 运行 eval.py 以评估当前最优模型在测试集上的准确率(可选),默认的配置文件为 configs/eval.yaml,其中各个属性对应的含义如下:

    device: "cpu"                         # 设备名称,与 PyTroch 的设备名称保持一致
    model-path: "checkpoints/best.pt"     # 待评估模型路径
    batch-size: 32                        # 批大小
    num-classes: 10                       # 模型分类类别数
    num-workers: 0                        # DataLoader 加载子进程数

模型推理部署

部署需要将训练好的模型转换为 ONNX 格式,运行 export.py 即可将模型导出为 ONNX 格式,默认的配置文件为 configs/export.yaml,其中各个属性对应的含义如下:

source-path: "checkpoints/best.pt"              # 待导出的 PyTorch 格式模型路径
num-classes: 10                                 # 模型分类类别数

export-path-fp32: "inferences/models/flower-fp32.onnx"    # fp32 精度模型导出路径
export-path-fp16: "inferences/models/flower-fp16.onnx"    # fp16 精度模型导出路径

若要使用 Docker 进行容器化部署:

# 构建镜像
cd FlowerClassify
docker build -t flowerclassify:1.3.0 -f docker/Dockerfile .

# 创建容器并运行
docker run --rm -p 9500:9500 --name flowerclassify flowerclassify:1.3.0

注:以上仅为一个示例,详情请参考 Docker 文档。