Advertisement

Second.pytorch被设计用于KITTI对象检测中的PointPillars。

  •  5星
  •     浏览量: 0
  •     大小:None
  •      文件类型:None


简介:
欢迎来到PointPillars。本存储库展示了如何通过对现有开源库进行的微小调整,成功地重现了在CVPR 2019上发布的论文中所使用的结果。请注意,此代码并非官方的nuTonomy代码库,但它能够被用于与已发布的PointPillars结果进行匹配。需要特别注意的是,该代码目前并未得到持续的积极维护。尽管如此,它仍然可以用于在论文的初步版本中重现实验结果。此外,对于在nuScenes平台上能够继续进行PointPillars结果重现的、由主动维护的存储库,我们强烈建议您使用它们。我们并非存储库的所有者,但我们与该项目的作者保持合作并对其代码表示认可。关于入门指南,这里提供了一个分支,其中包含了原始README文件相关子集的复制内容。代码支持Python 3.6及以上版本,以及PyTorch 0.4.1及以上版本。请知悉,该代码仅在Ubuntu 16.04和18.04操作系统上进行了测试验证。

全部评论 (0)

还没有任何评论哟~
客服
客服
  • Second.PyTorch: KITTIPointPillars
    优质
    Second.pytorch是基于PyTorch框架实现的PointPillars模型,专门针对KITTI数据集上的3D物体检测任务进行优化和开发。 欢迎来到PointPillars。此存储库展示了如何通过少量的代码更改,在现有开源项目的基础上重现CVPR 2019论文中的结果。这不是nuTonomy官方的代码仓库,但可以用于验证已发表的结果。 警告:该代码未得到积极维护。 对于想要在nuScenes上重现PointPillars结果并寻求活跃支持的情况,我们建议使用其他推荐的存储库(注:原文中没有明确指出具体的替代链接)。 本项目是基于原始README文档的一个分支。代码仅支持Python 3.6及以上版本和PyTorch 0.4.1或更高版本,并且只在Ubuntu 16.04/18.04系统上进行了测试。 安装步骤: 1. 克隆代码库 ``` git clone https://github.com/nutonomy/second.pytor ``` (注:原文中提及了具体的git仓库链接,但由于要求去除所有链接信息,在此未提供完整URL。)
  • kitti-object-eval-python:Python实现快速KITTI评估(评估时间少10秒)
    优质
    Kitti-Object-Eval-Python是一个高效的Python工具包,专门用于加速KITTI数据集上的物体检测模型评估。该软件能将评估时间大幅缩减至10秒以内,极大地提高了开发效率和实验迭代速度。 在Python中可以快速进行Kitti对象检测评估(通常能在不到10秒的时间内完成),支持2D、BEV、3D及AOS的评估方式,并且兼容COCO式的AP计算方法。 若使用命令行界面,初次运行时numba库需要一些时间来编译JIT函数。需要注意的是,“coco”并不是官方推荐使用的指标;仅“AP(平均精度)”是标准的评价指标。 依赖关系要求Python版本至少为3.6,并且需安装numpy、scikit-image、numba、fire和scipy等库。如果使用Anaconda环境,还需在anaconda中配置cudatoolkit。具体命令如下: ``` conda install -c numba cudatoolkit=x.x ``` 其中x.x的版本号可以根据您的开发环境选择8.0, 9.0或10.0等。 对于使用命令行界面的方式,可以参考以下示例指令启动程序: ``` python [your_script].py ``` 请确保已正确安装所需库并根据实际情况调整cudatoolkit的版本。
  • Python类:object_detection_confusion_matrix,混淆矩阵
    优质
    本Python类提供工具来计算和分析对象检测任务中的混淆矩阵,帮助用户深入了解模型性能,包括精确度、召回率等关键指标。 用于目标检测的混淆矩阵 ConfusionMatrix 类可以为对象检测任务生成混淆矩阵。使用该类时,请根据需要设置相应的参数来声明实例: ```python conf_mat = ConfusionMatrix(num_classes=3, CONF_THRESHOLD=0.3, IOU_THRESHOLD=0.5) ``` 此类包含一个名为 `process_batch` 的函数,可以用来更新混淆矩阵。例如: ```python conf_mat.process_batch(preds, gt_boxes) ``` 其中,`preds` 是模型的预测结果(格式为 [N,6]:x1、y1、x2、y2、置信度和类别),而 `gt_boxes` 则是地面真实标签(格式为 [M,4]:x1、y1、x2 和 y2 以及对应的类别)。
  • YOLO
    优质
    YOLO(You Only Look Once)是一种实时目标检测系统,能够高效识别图像中的多个对象,并迅速给出精确位置。 ### YOLO(You Only Look Once):统一实时对象检测技术 #### 摘要与背景 YOLO(You Only Look Once),一种新颖的目标检测方法,由Joseph Redmon、Santosh Divvala、Ross Girshick和Ali Farhadi等学者提出。此方法将目标检测问题视为对空间上分离的边界框及其相关类别概率的回归问题。YOLO通过单一神经网络直接从完整图像中预测边界框和类别概率,在一次评估中完成整个过程。由于整个检测管道是由一个单一的网络构成,因此可以针对检测性能进行端到端的优化。 YOLO的设计极大地提高了检测速度。其基础模型可以在实时情况下处理每秒45帧的图像。而更小型的Fast YOLO版本则能以惊人的每秒155帧的速度运行,同时保持了比其他实时检测器更高的准确率。与其他顶尖的检测系统相比,YOLO可能会产生更多的定位误差,但较少出现背景中的假阳性预测。此外,YOLO能够学习非常通用的对象表示形式,在从自然图像转移到其他领域(如艺术作品)时表现出色。 #### 引言与人类视觉系统的启示 人类在观察一幅图像时,几乎瞬间就能识别出图像中的物体、它们的位置以及相互之间的关系。人类视觉系统不仅快速而且准确,使得我们能够在几乎没有意识思考的情况下执行复杂的任务,例如驾驶汽车。如果计算机也能具备类似的快速、准确的对象检测算法,那么它们就能够不依赖特殊传感器来驾驶汽车,辅助设备也能为用户提供实时的场景信息,并开启响应式通用机器人系统的可能性。 现有的检测系统通常重新利用分类器来执行检测任务。为了检测一个特定的对象,这些系统会采用该对象的分类器并在测试图像的不同位置和尺度上对其进行评估。例如,可变形部件模型(DPM)采用滑动窗口的方法,在整个图像上均匀间隔地运行分类器。而更近的一些方法,如R-CNN,则使用区域提议来提高效率和准确性。 #### YOLO的核心思想与优势 **核心思想:**YOLO将对象检测视为一个回归问题,而不是传统的分类和定位的组合。它使用一个单一的神经网络直接从整张图像中预测多个边界框及其所属类别的概率。这种设计简化了整个检测流程,实现了端到端的训练和优化。 **优势:** - **实时性能:**YOLO能够实现实时处理,在低配置硬件上也能够达到较高的帧率。 - **端到端训练:**由于整个检测过程是由一个单一网络完成的,因此可以对整个模型进行端到端的训练,从而优化整体性能。 - **较少的假阳性:**尽管在某些情况下会产生更多的定位误差,但YOLO在背景中的误报率较低,有助于减少不必要的干扰。 - **泛化能力:**YOLO能够很好地适应不同领域的数据,如从自然图像到艺术作品等,这表明其具有良好的泛化能力。 #### 结论 作为一种创新的对象检测方法,YOLO通过将检测问题视为回归问题的方式极大地简化了流程,并提高了速度和效率。单一神经网络的设计使得端到端的训练成为可能,从而进一步提升了模型的整体性能。除了实时处理方面的优势外,YOLO还具有较好的泛化能力,在不同应用场景中表现出色。随着技术的进步和发展,YOLO将继续为计算机视觉领域带来更多的突破与应用。
  • TensorFlowfrozen_inference_graph.pb
    优质
    frozen_inference_graph.pb是TensorFlow对象检测模型中的一个二进制文件,包含训练好的模型参数,用于部署时直接进行物体识别和定位。 ssd_mobilenet_v1_coco_11_06_2017是一款基于MobileNet架构的单发检测模型,适用于多种物体识别任务。该版本于2017年6月发布,在COCO数据集上进行了训练和验证。
  • 车辆KITTI数据集
    优质
    简介:KITTI数据集是用于评价自动驾驶和计算机视觉算法性能的重要资源,尤其在立体匹配、目标检测及跟踪等领域应用广泛。 KITTI数据集已处理完毕,共5G数据可以直接用于yolov训练darknet标注信息的数据格式:0, center_x, center_y, w, h。本数据集中只保留了car类型,需要其他类型的标签可以单独联系获取原始label。
  • TF_Wildlife_Detector_Dataset: 适TensorFlow 2.0数据集...
    优质
    TF_Wildlife_Detector_Dataset 是一个专为TensorFlow 2.0设计的野生动物对象检测数据集,包含大量标注图片和注释文件,旨在促进生态保护领域的机器学习研究。 TF野生动物探测器数据集是我为了训练自己的Wildlife检测器而收集的数据集,并且是为与我的MSc论文一起使用而开发的:一种基于神经网络的优化算法,用于自动识别和量化高分辨率无人机图像上的保护性对象。由于时间和资源限制,我们无法从鸟瞰图中获得足够的野生动物图像。因此,决定采用由3D模型生成的“鸟瞰图”来创建或使用野生动物模拟,并将这些3D模拟产生的图片作为训练与验证的数据集。整个数据集中大约有794张这样的3D模拟野生动物图像。该数据集按照90%:10%的比例划分成训练和测试部分。 入门资料夹结构如下: - annotations:包含以PASCAL VOC格式的xml文件。 - data:包括TF对象检测API的输入文件以及标签等信息。
  • GradioYOLOv5通系统.zip
    优质
    本项目提供了一个基于Gradio和YOLOv5的交互式对象检测系统。用户可以上传图片或视频,快速得到实时的对象识别结果。此资源包含详细的安装与使用说明。 基于Gradio的YOLOv5通用目标检测系统利用了Gradio库来创建一个用户友好的界面,使得非专业人员也能轻松使用YOLOv5进行目标检测任务。该系统不仅简化了模型的部署过程,还提高了用户体验,使实时图像和视频的目标识别变得更加便捷高效。
  • TensorRTYOLOv4器(yolov4_trt_ros)
    优质
    yolov4_trt_ros是一款利用TensorRT优化的YOLOv4对象检测软件包,专为ROS系统设计,提供高效实时物体识别功能。 带有TensorRT引擎的YOLOv4软件包包含yolov4_trt_node,可使用NVIDIA的TensorRT引擎执行推理,适用于YOLOv3和YOLOv4模型。根据使用的YOLO模型相应地更改命令。 搭建环境及安装依赖项: 当前环境:杰特逊Xavier AGX、ROS旋律、Ubuntu 18.04、Jetpack 4.4、TensorRT 7+ 所需依存关系如下: - OpenCV 3.x - numpy的1.15.1 - Protobuf 3.8.0 - Pycuda(安装时间较长) - onnx 1.4.1 (取决于Protobuf版本) 使用以下命令来安装所有依赖项: 进入${HOME}/catkin_ws/src/yolov4_trt_ros/dependencies目录,然后运行: $ ./install_pycuda.sh
  • Kitti Mini数据裁剪数据
    优质
    Kitti Mini 数据对象裁剪数据集是专为自动驾驶研究设计的小规模数据集,包含车辆、行人和自行车等交通参与者的精确边界框标注。 kitti mini数据集是mini版的KITTI激光雷达数据集,在保留图像视野内的点云的同时剔除了图片视野范围外的点云。该版本包含20个训练点云文件和5个测试点云文件,可以用于快速验证三维点云算法模型,并且下载速度更快。关于crop点云裁剪过程的具体细节,请参考相关文献或资料。