Advertisement

Monodepth-Dev: 利用分割模型在NYU-depth v2数据集上实现单目深度估计

  •  5星
  •     浏览量: 0
  •     大小:None
  •      文件类型:None


简介:
Monodepth-Dev项目基于NYU-depth v2数据集,采用先进的分割模型进行训练,旨在提高单目深度估计的精度和效率。 该存储库为NYU深度数据集V2提供了单眼深度估计的简单PyTorch Lightning实现。依存关系包括Docker 20.10.2、Python 3.8.0以及多个特定版本的其他库,具体版本请参见相关文档。 方法细分: - **模型**:使用微软EfficientNet-B7和UnetPlusPlus架构。 - **深度损失**:采用三角洲(delta)损失函数进行优化。 - **骨干类型**:EfficientNet-b7 和 FPN - 使用EfficientNet-b7时,性能指标为lg10: 0.8381, abs_rel: 0.9658, sq_rel: 0.9914, rmse: 0.0553, log_rms: 0.1295, a1: 0.3464, a2: 0.3307。 - 使用EfficientNet-b7和FPN时,性能指标为lg10: 0.8378, abs_rel: 0.9662, sq_rel: 0.9915, rmse: 0.0561, log_rms: 0.1308, a1: 0.3523, a2: 0.3308。 此外,EfficientNet-b4也被用于实验。

全部评论 (0)

还没有任何评论哟~
客服
客服
  • Monodepth-Dev: NYU-depth v2
    优质
    Monodepth-Dev项目基于NYU-depth v2数据集,采用先进的分割模型进行训练,旨在提高单目深度估计的精度和效率。 该存储库为NYU深度数据集V2提供了单眼深度估计的简单PyTorch Lightning实现。依存关系包括Docker 20.10.2、Python 3.8.0以及多个特定版本的其他库,具体版本请参见相关文档。 方法细分: - **模型**:使用微软EfficientNet-B7和UnetPlusPlus架构。 - **深度损失**:采用三角洲(delta)损失函数进行优化。 - **骨干类型**:EfficientNet-b7 和 FPN - 使用EfficientNet-b7时,性能指标为lg10: 0.8381, abs_rel: 0.9658, sq_rel: 0.9914, rmse: 0.0553, log_rms: 0.1295, a1: 0.3464, a2: 0.3307。 - 使用EfficientNet-b7和FPN时,性能指标为lg10: 0.8378, abs_rel: 0.9662, sq_rel: 0.9915, rmse: 0.0561, log_rms: 0.1308, a1: 0.3523, a2: 0.3308。 此外,EfficientNet-b4也被用于实验。
  • 纽约大学V2 (NYU Depth Dataset V2) -
    优质
    纽约大学深度数据集V2(NYU Depth Dataset V2)是一个包含大量家庭场景图像及其对应深度信息的数据集合,适用于计算机视觉和机器学习研究。 NYU Depth Dataset V2是由纽约大学提供的数据集。有关室内分割和支持从RGBD图像推断的论文可以参考《indoorsegmentationandsupportinferencefromRGBDImages.pdf》。 注意:原文中没有具体的链接或联系信息,因此在重写时未做相应修改。
  • Python-MonoDepth: PyTorch下的无监督
    优质
    Python-MonoDepth是一款基于PyTorch开发的开源工具包,专注于通过无监督学习方法进行高效的单目图像深度估算。此项目为开发者和研究者提供了一个简便而强大的框架来训练、评估及应用单目深度预测模型。 MonoDepth-PyTorch 是一个使用 PyTorch 实现的无监督单目深度估计项目。
  • nyu-depth-v2_labeled.mat(百网盘享).txt
    优质
    这是一个包含NYU Depth V2数据集信息的文件,提供了访问该深度学习常用数据集的百度网盘链接。 MIT fast-depth论文使用的数据集是nyu-depth-v2_labled.mat,文件大小为2.77G,可以在百度网盘下载。
  • NYU V2提取-附件资源
    优质
    本资源提供纽约大学V2版本的数据集提取工具与方法,帮助用户便捷获取并处理视频序列、图像等相关数据,适用于计算机视觉领域的研究和开发。 NYU V2数据集提取数据-附件资源
  • Halcon学习之语义(3):
    优质
    本文为Halcon深度学习系列教程第三部分,专注于语义分割中的模型评估方法和技术,帮助读者了解如何准确评价分割模型的效果。 Halcon深度学习-语义分割(3)-模型评估
  • 多种毒蘑菇的应与评.ipynb
    优质
    本Jupyter Notebook文件探讨了不同机器学习分类模型在识别有毒蘑菇任务中的表现,通过多个指标对比分析它们的效果,并提供优化建议。 毒蘑菇数据集多种分类模型及评估.ipynb这份文档包含了对不同分类模型在毒蘑菇数据集上的应用与效果评估。
  • LayoutLM_CORD:CORD的LayoutLM
    优质
    简介:本文介绍了在CORD(Custom Forms and Documents)数据集上对LayoutLM模型进行评估的研究。通过分析LayoutLM在复杂文档布局理解任务中的表现,为该模型的实际应用提供了有价值的参考信息。 这个repo是Layoutlm模型的一个实现,并在CORD数据集上进行了基准测试。我将预训练的LayoutLM在IIT-CDIP数据集(大版本)上的性能与Bert(大版本)进行了比较。 验证集中: - LayoutLM 大:F1_Score 0.9562,精确度 0.9577,召回率 0.9546 - Bert 大:F1_Score 0.9474,精确度 0.9466,召回率 0.9481 测试集中: - LayoutLM 大:F1_Score 0.9843,精确度 0.9845,召回率 0.9841 - Bert 大:F1_Score 0.9859,精确度 0.9861,召回率 0.9856 在验证集中,Layoutlm的表现优于Bert;但在测试集中情况并非如此。我需要进一步调查原因。