Advertisement

PyTorch-SSD基于MobileNetV1、MobileNetV2、VG...,适用于PyTorch 1.0和PyTorch 0.4版本。

  •  5星
  •     浏览量: 0
  •     大小:None
  •      文件类型:None


简介:
该仓库展示了PyTorch中的单发MultiBox检测器,其实现对项目产生了重大影响。设计目标是构建模块化且具备良好可扩展性的系统。目前,该检测器提供了MobileNetV1、MobileNetV2以及基于VGG的SSD / SSD-Lite等多种实现方案。此外,它还集成了开箱即用的功能,能够方便地对Google Open Images数据集进行重新训练。为了方便用户在Google OpenImages数据集上训练模型,建议使用Boto3库。运行演示程序可以实时体验MobilenetV1 SSD演示,可以通过wget命令下载预训练模型:wget -P models https://storage.googleapis.com/models-hao/mobilenet-v1-ssd-mp-0_675.pth wget -P models

全部评论 (0)

还没有任何评论哟~
客服
客服
  • PyTorch-SSD: MobileNetV1MobileNetV2VGG的PyTorch 1.00.4实现
    优质
    PyTorch-SSD是一个使用PyTorch框架实现的目标检测项目,基于MobileNetV1/V2和VGG模型,在PyTorch 1.0及0.4版本上提供高效稳定的单阶段检测解决方案。 Pytorch中的单发MultiBox检测器实现包含在此仓库中。该实施受到项目及其影响的启发,设计目标是模块化和可扩展性。目前支持MobileNetV1、MobileNetV2以及基于VGG的SSD/SSD-Lite实现,并且开箱即用地支持Google Open Images数据集上的重新训练。 依赖关系: - Python 3.6+ - OpenCV - Pytorch 1.0或Pytorch 0.4+ - Caffe2 - 大熊猫(可能是指Pandas) 如果要在Google OpenImages数据集上进行模型训练,需要使用Boto3。可以运行实时MobilenetV1 SSD演示。 要下载所需的预训练模型,请执行以下命令: ``` wget -P models https://storage.googleapis.com/models-hao/mobilenet-v1-ssd-mp-0_675.pth ```
  • Mobilenetv2.pytorch: MobileNetV2 1.0模型在ImageNet上的72.8%准确率及多个预训练...
    优质
    本项目提供了PyTorch实现的MobileNetV2 1.0模型,该模型在ImageNet数据集上达到了72.8%的Top-1准确率,并包含多种预训练版本。 MobileNet V2的PyTorch实现已发布在我的仓库中,并且发布了下一代MobileNet(*mobilenetv3.pytorch*)以及改进版的设计HBONet [ICCV 2019],同时提供了一个更好的预训练模型。 根据Mark Sandler、Andrew Howard、Menglong Zhu、Andrey Zhmoginov和Liang-Chieh Chen的研究成果,该实现使用框架对ILSVRC2012基准进行了测试。此版本提供了示例过程用于训练和验证流行深度神经网络架构,并集成了模块化数据处理、训练日志记录及可视化功能。
  • PyTorch-ARM-Builds:ARM设备的非官方PyTorch及Torchvision
    优质
    PyTorch-ARM-Builds提供针对ARM架构设备的非官方PyTorch和Torchvision库版本,便于在嵌入式系统或移动设备上进行深度学习开发。 pytorch-arm-builds 提供了非官方的 ARMv6、ARMv7 和 Aarch64 构建版本,适用于 Raspberry Pi 0、1、2、3、4 等设备及 Android 手机等平台。 ### 常见问题解答 #### 1. 构建过程 构建详细说明如下: - 这些是在带有 qemu-static chroot 的 Fedora x86_64 系统上进行的。 - armv6 版本在 Raspberry Pi Zero WH(运行 Raspbian) 上完成构建。 #### 2. 依赖关系 PyTorch 的 Python 包仅需要 numpy。建议使用发行版包管理器下载二进制版本,避免自行编译。还需其他一些依赖项如 openblas、libgom 和 pillow 等。 Python 解释器在导入时会警告缺失的模块。 Fedora 用户可以通过以下命令安装所需依赖: ```bash sudo dnf install ``` 请根据实际需要替换 `` 为具体的包名。
  • PyTorch中Python-MobileNetV2的实现
    优质
    本项目展示了如何在PyTorch框架下使用Python语言实现MobileNetV2模型,适用于移动端和嵌入式设备上的高效图像识别任务。 MobileNet V2在PyTorch中的实现涉及到了网络模型的轻量化设计,在保持较高准确率的同时大幅度减少了计算量和参数数量。通过使用诸如倒残差结构与线性瓶颈层等技术,该版本进一步优化了前一代MobileNet架构的表现,使其更加适合移动设备上的实时应用需求。
  • PyTorch 1.0的Faster-RCNN,使vgg16-caffe.pthresnet101-caffe.pth
    优质
    本项目采用PyTorch 1.0实现Faster R-CNN算法,预训练模型包括VGG16与ResNet101,权重基于Caffe框架。适合物体检测任务研究。 Faster-RCNN 使用 PyTorch 1.0 版本,在文件夹 data/pretrained_model 中包含 vgg16_caffe.pth 和 resnet101_caffe.pth 模型。
  • Pytorch-StarGAN-Digits: 非官方Pytorch的StarGAN,Digit-5数据集(MNIST...)
    优质
    Pytorch-StarGAN-Digits是一个非官方的Pytorch实现库,用于在MNIST等Digit-5数据集上运行StarGAN模型。 派托克·史塔根·迪格斯StarGAN的非官方Pytorch实现用于生成Digit-5数据集(包括MNIST、SVHN、SynDigits、MNIST-M和USPS)。典型的顶层目录布局如下: ``` ├── build # 编译文件 ├── docs # 文档文件 ├── src # 源代码文件 ├── test # 自动化测试 ├── tools ```
  • DenseCap-PyTorch:简化的PyTorch
    优质
    DenseCap-PyTorch提供了一个精简且易于使用的PyTorch框架,用于实现密集-captioning模型。此项目简化了原始代码,便于研究者快速上手和进行实验。 皮尔托奇的Densecap 简化pytorch版本可以发出或直接通过其他方式联系我。密集帽(DenseCap)是一种从图像中检测区域,并用简短句子描述每个区域的技术。 我们的模型代码直接继承了GeneralizedRCNN,旨在使其易于理解和使用。因此,区域检测器部分与原始论文有所不同。该实现应该可以在具有12GB内存的单个GTX 1080Ti GPU上进行训练。所需环境为Python 3.7和pytorch 1.4.0,另外还需要安装torchvision 0.5.0、h5py、tqdm以及DataLoader的预取版本以加快培训速度。 我们使用nlgeval来计算Meteor得分,但可以修改validate.py文件以采用其他方法(例如coco-)。
  • PyTorch-GLOW: OpenAI GLOW的PyTorch
    优质
    PyTorch-GLOW是基于OpenAI GLOW的实现,完全用PyTorch构建。它提供了一种快速、灵活的方法来执行高质量的语音合成和音频处理任务,适用于各种研究与开发场景。 辉光项目使用Pytorch实现了OpenAI生成模型。 此仓库提供了一种用于堆叠可逆转换的模块化方法。 运行代码: ``` python train.py ``` 例如: ``` CUDA_VISIBLE_DEVICES=0 python train.py --depth 10 --coupling affine --batch_size 64 --print_every 100 --permutation conv ``` 待办事项包括: - 多GPU支持。如果性能是您的主要问题,建议尝试Pytorch实现。 - 支持更多数据集 - 实现LU分解的可逆卷积。 该存储库不再维护。如果有需要可以提出问题,但响应可能较慢。
  • PyTorch-Spiking-YOLOv3: PyTorch的Spiking-YOLOv3实现。根据YOLOv3的两个常见PyTorch...
    优质
    PyTorch-Spiking-YOLOv3是一个基于PyTorch框架实现的项目,它将脉冲神经网络原理应用于经典的物体检测模型YOLOv3中,提供了一个新颖的研究方向。该项目兼容两种流行的PyTorch YOLOv3版本,便于研究和应用开发。 PyTorch-Spiking-YOLOv3 是基于 YOLOv3 的 PyTorch 实现的版本,目前支持 Spiking-YOLOv3-Tiny。整个 Spiking-YOLOv3 将会得到全面的支持。为了实现尖峰效果,在 YOLOv3-Tiny 中对某些运算符进行了等效转换,具体如下:maxpool(stride = 2) 转换为 convolutional(stride = 2), maxpool(stride = 1) 转换为 none, upsample 被替换为 transposed_convolutional,leaky_relu 变更为 relu ,批处理标准化被融合到 fuse_conv_and_bn 中。关于如何进行训练、评估和推理,请参考相关文档或代码说明。
  • SiamRPN-PyTorch: PyTorch的SiamRPN实现
    优质
    SiamRPN-PyTorch是一款基于PyTorch框架开发的代码库,实现了Siamese Region Proposal Network(SiamRPN)算法。该工具为视觉追踪任务提供了高效、灵活的解决方案。 SiamRPN-PyTorch 使用 PyTorch 框架为对象跟踪应用程序重新实现了 SiamRPN。开发的代码基于先前的一些实现工作,并且为了测试所开发的代码,使用了 VOT-2013 体操子数据集。要求 Python 版本 >= 3.6、PyTorch 版本 >= 1.0.1、torchvision 和 cv2 库。 训练和追踪:已实现的代码以 [x1, y1, w, h] 的形式接收地面真实值(ground truth)。数据集结构如下: ``` dataset_path/Gymnastics/img1.jpg /img2.jpg ... /imgN.jpg /groundtruth.txt ``` 运行命令: $ python3 SiamRPN_train.py