Advertisement

Pruned-OpenVINO-YOLO: 在OpenVINO嵌入式设备上部署优化的YOLOv3/YOLOv4/YOLOv4-tiny模型

  •  5星
  •     浏览量: 0
  •     大小:None
  •      文件类型:ZIP


简介:
Pruned-OpenVINO-YOLO项目致力于在OpenVINO框架下,为嵌入式设备提供轻量级且高效的YOLOv3、YOLOv4及YOLOv4-tiny版本的优化部署方案。通过模型剪枝技术显著减小模型大小并加速推理过程,同时保持高精度和实时性能,适用于资源受限环境下的目标检测任务。 修剪后的OpenVINO-YOLO 先决条件: 首先安装mish-cuda:测试平台为WIN10 + RTX3090 + CUDA11.2。 如果无法在设备上安装,可以尝试其他方式。 开发日志: - 2021年2月25日:支持yolov4-tiny和yolov4-tiny-3l。请使用或修剪yolov4-tiny和yolov4-tiny-3l模型,并通过darknet调整修剪后的模型,无需加载权重。 - 2021年3月13日:更新了Mish-cuda支持,增强了代码对YOLOv4的适应性(训练更快、内存占用更少)。 介绍: 当在OpenVINO上部署YOLOv3和YOLOv4时,完整版模型FPS较低;而微型版本虽然提高了速度但准确性较差且稳定性不足。通常,完整结构设计用于复杂场景中检测80个或更多类别的目标,在实际应用中往往只需处理几个类别,并非所有场景都那么复杂。 本教程将分享如何修剪YOLOv3和YOLOv4模型以适应这些特定需求。

全部评论 (0)

还没有任何评论哟~
客服
客服
  • Pruned-OpenVINO-YOLO: OpenVINOYOLOv3/YOLOv4/YOLOv4-tiny
    优质
    Pruned-OpenVINO-YOLO项目致力于在OpenVINO框架下,为嵌入式设备提供轻量级且高效的YOLOv3、YOLOv4及YOLOv4-tiny版本的优化部署方案。通过模型剪枝技术显著减小模型大小并加速推理过程,同时保持高精度和实时性能,适用于资源受限环境下的目标检测任务。 修剪后的OpenVINO-YOLO 先决条件: 首先安装mish-cuda:测试平台为WIN10 + RTX3090 + CUDA11.2。 如果无法在设备上安装,可以尝试其他方式。 开发日志: - 2021年2月25日:支持yolov4-tiny和yolov4-tiny-3l。请使用或修剪yolov4-tiny和yolov4-tiny-3l模型,并通过darknet调整修剪后的模型,无需加载权重。 - 2021年3月13日:更新了Mish-cuda支持,增强了代码对YOLOv4的适应性(训练更快、内存占用更少)。 介绍: 当在OpenVINO上部署YOLOv3和YOLOv4时,完整版模型FPS较低;而微型版本虽然提高了速度但准确性较差且稳定性不足。通常,完整结构设计用于复杂场景中检测80个或更多类别的目标,在实际应用中往往只需处理几个类别,并非所有场景都那么复杂。 本教程将分享如何修剪YOLOv3和YOLOv4模型以适应这些特定需求。
  • OpenVINO-YOLOV4: OpenVINO 2021.3中YOLOv4系列,包括YOLOv4YOLOv4-relu和YOLOv4-tiny等版本
    优质
    简介:OpenVINO-YOLOV4项目是基于Intel OpenVINO工具套件2021.3实现的高性能YOLOv4目标检测算法系列,涵盖经典YOLOv4、YOLOv4-relu及轻量级模型YOLOv4-tiny版本。 VINO-YOLOv4是一个完整实现的项目,支持多种设备上的YOLOv4模型变种:包括YOLOv4、YOLOv4-relu 和 YOLOv4-tiny。这些模型在英特尔CPU、英特尔GPU(HDDL)、VPU和NCS2等硬件上均可运行。 该项目提供了详细的推理演示: 1. Python示例代码涵盖所有上述提到的模型。 2. C++示例代码包括YOLOv4,YOLOv4-relu,YOLOv4-tiny以及YOLOv4-tiny-3l版本。 此外,项目还包含开发日志和教程文档。其中,“Pruned-OpenVINO-YOLO”部分详细介绍了如何修剪YOLO v3/v4及其轻量级变种(如:YOLOv4、YOLOv4-relu、YOLOv4-tiny 和 YOLOv4-tiny-3l)模型,以适应特定检测任务需求。通过此教程可以找到最紧凑的模型结构,并大幅压缩原模型体积同时优化帧率性能(FPS)。 该教程支持中文和英文双语版本供用户选择学习使用。
  • TensorFlow-YOLOv4-TFLite: YOLOv4, YOLOv4-tiny, YOLOv3, 和 YOLOv3-tiny T...
    优质
    简介:此项目实现YOLOv4、YOLOv4-tiny、YOLOv3及YOLOv3-tiny模型在TensorFlow框架下的转换至TFLite格式,适用于移动设备与嵌入式系统。 TensorFlow-YOLOv4-TFLite 是在 Tensorflow 2.0 中实现的 YOLO v4 和 YOLO v4-tiny 版本。该项目可以将YOLO v4、YOLO v3以及YOLO tiny 的.weights 文件转换为.pb、.tflite和trt格式,以便生成 TensorFlow、TensorFlow Lite 和 TensorRT。 性能演示版 # 将darknet权重转换成tensorflow ## YOLOv4 python save_model.py --weights ./data/yolov4.weights --output ./checkpoints/yolov4-416 --input_size 416 --model yolov4 ## YOLOv4-tiny python save_model.py --weights ./data/
  • Yolov4-Triton-Tensorrt: Triton Inference服务器用TensorRTYOLOv4
    优质
    本文介绍了如何在NVIDIA Triton推理服务器中利用TensorRT技术对YOLOv4模型进行高效优化和部署,实现高性能的实时目标检测服务。 使用TensorRT的Triton Inference Server上的YOLOv4展示了如何将YOLOv4作为优化引擎部署到该服务器上。Triton Inference Server具有许多现成的优势,可用于模型部署,例如GRPC和HTTP接口,在多个GPU上自动调度,共享内存(甚至在GPU上),运行状况度量和内存资源管理。TensorRT通过融合层并为我们的特定硬件选择最快的层实现来自动优化模型的吞吐量和延迟。我们将使用TensorRT API从头开始生成网络,并将所有不支持的图层添加为插件。 构建TensorRT引擎除了需要一个具有GPU支持的docker环境外,不需要其他依赖项。我们将在TensorRT NGC容器内运行所有的编译工作以避免必须本地安装TensorRT。要获取带有我们的回购代码的可运行TensorRT容器,请执行以下命令: ``` cd yourwork ```
  • YoloV3YoloV3-TinyYoloV4及YoloV-Tiny预训练下载
    优质
    本资源提供YOLOv3和YOLOv3-Tiny、YOLOv4及其Tiny版本的预训练模型免费下载,适用于快速部署目标检测任务。 yolov3-tiny预训练模型、yolov3预训练模型、yolov4 预训练模型以及 yolov4-tiny预训练模型全部打包在一个压缩文件中。
  • Yolov4-tiny: Yolov4神经网络文件
    优质
    Yolov4-tiny是一种轻量级的物体检测模型,基于Yolov4架构优化而成,适用于资源受限的设备。 主要介绍的是Yolov4-tiny 和 Yolov4 的神经网络模型文件,可以直接调用。这些模型广泛应用于物体识别、目标跟踪、人脸识别以及无人机等领域。
  • YOLOv4-对比-YOLOv4-tiny
    优质
    本篇内容主要探讨了YOLOv4与YOLOv4-tiny之间的区别和优劣。YOLOv4是实时目标检测算法中的佼佼者,而YOLOv4-tiny则是在保持高效的同时,通过简化网络结构来实现模型的轻量化。 根文件夹中有两个主要的Jupyter笔记本,其中包含在Roboflow数据集上运行YOLOv4和YOLOv4-tiny的所有代码和指令。我还添加了一些功能来使用您的网络摄像头捕获实时对象检测。 视频文件夹包含经过口罩训练的YOLOv4视频,并将其应用于涵盖冠状病毒最新新闻的视频。
  • OpenVINO 2022中Yolov5 v6.1示例
    优质
    本教程详细介绍如何使用Intel的OpenVINO工具套件将YOLOv5版本6.1的深度学习模型高效转换并部署,适用于计算机视觉任务。 使用OpenVINO 2022.1.0、openvino-dev 2022.1.0 和 openvino-telemetry 2022.1.1 部署最新版的YOLOv5 v6.1 模型。同时,需要安装 torch 1.8.1 和 torchvision 0.9.1。
  • YOLOV3-Tiny训练、量海思芯片
    优质
    本项目聚焦于YOLOv3-Tiny模型,在确保高效率的同时优化其目标检测性能。通过量化技术处理后,该模型成功移植至海思系列芯片,并进行详细测试与验证。 本课程详细讲解Yolov3 Tiny算法模型的训练、量化、仿真以及在海思开发板上的部署。主要内容包括: 1. 课程介绍。 2. Darknet框架代码下载及其编译。 3. 基于无人零售商品数据集训练yolov3 tiny: a)无人零售数据集介绍 b)配置文件data和cfg的介绍及修改 c)模型训练与较优模型的选择 4. yolov3 tiny darknet模型转换为caffe model。 5. wk模型生成及其仿真验证: a) 3519av100 sdk010提供 b) 模型量化 c) 仿真代码讲解及运行 6. 仿真检测结果框偏移现象及其纠正。 7. 量化模型在板载上的运行。
  • Yolov8OpenVINO和TensorRT量
    优质
    本文章介绍了如何将流行的YOLOv8模型在OpenVINO和TensorRT平台上进行量化部署的技术细节与实践方法。 本段落涉及的内容包括C++和Python的所有源代码、模型文件、用于推理的图片和视频资源文件。这些材料与一篇发表在博客上的文章相关联。