Advertisement

基于NVIDIA Jetson TX2的道路场景分割研究_李诗菁(2019-09-11-14-12-read)1

  •  5星
  •     浏览量: 0
  •     大小:None
  •      文件类型:None


简介:
该文由李诗菁于2019年撰写,探讨了利用NVIDIA Jetson TX2平台进行道路场景分割的研究,旨在提高自动驾驶车辆对周围环境的理解能力。 图像语义分割是计算机视觉领域的重要研究方向之一。基于深度学习的语义分割方法相较于传统算法更为高效可靠,并可应用于交通监控、自动驾驶等领域中的场景理解阶段。

全部评论 (0)

还没有任何评论哟~
客服
客服
  • NVIDIA Jetson TX2_(2019-09-11-14-12-read)1
    优质
    该文由李诗菁于2019年撰写,探讨了利用NVIDIA Jetson TX2平台进行道路场景分割的研究,旨在提高自动驾驶车辆对周围环境的理解能力。 图像语义分割是计算机视觉领域的重要研究方向之一。基于深度学习的语义分割方法相较于传统算法更为高效可靠,并可应用于交通监控、自动驾驶等领域中的场景理解阶段。
  • NVIDIA Jetson TX2简介
    优质
    NVIDIA Jetson TX2是一款专为嵌入式AI系统设计的强大模块,搭载Pascal架构GPU及Denver CPU,支持深度学习与计算机视觉应用,适用于机器人、无人机等高性能计算需求场景。 详细介绍了NVIDIA TX2套件的基础和软件架构,总结得非常到位。
  • Jetson-TX2-PyTorch: 在Nvidia Jetson TX1/TX2上安装PyTorch
    优质
    本项目提供在NVIDIA Jetson TX1和TX2开发板上安装PyTorch的详细教程,帮助开发者快速搭建深度学习环境。 在NVIDIA Jetson TX1/TX2上安装PyTorch是一个相对简单快捷的过程。作为新的深度学习框架,它在这两个板子上的运行效果很好,并且与TensorFlow不同的是,在TX1上构建时不需要外部交换分区。 尽管TX2具有32GB的eMMC空间,但TX1的空间只有其一半大小,由于JetPack、Ubuntu软件包和安装工件的限制,很容易耗尽存储空间。这里提供了一些清理方法来解决这一问题,并且这些步骤倾向于极简主义风格。 PyTorch开发人员推荐使用Anaconda发行版进行部署。然而,在ARM64架构下找到最新的Anaconda设置版本有些困难,所以我选择了全局Python库来进行安装。 提示:在TX2上运行~/jetson_clocks.sh脚本可以加速CPU的执行并启用多个内核,从而将PyTorch编译时间从大约45分钟减少到37分钟左右。虽然我还没有在TX1上测试过这一点,但预计速度提升效果应该类似。
  • NVIDIA Jetson TX2 SPI编程
    优质
    NVIDIA Jetson TX2 SPI编程 简介:本教程详细介绍在NVIDIA Jetson TX2平台上进行SPI(串行外设接口)编程的方法与技巧,涵盖硬件配置、软件开发及常见问题解决。 NVIDIA JETSON TX2 spi接口调试过程中,在J21接口进行spi收发对接,如果能收到数据且与代码内发送的数据一致,则表示接口调试成功。
  • DDRNet:实现实时语义
    优质
    DDRNet是一种创新的道路场景实时语义分割方法,旨在提供高效、准确的路况识别解决方案。 我们成功实现了“深度双分辨率网络”,能够实时且准确地对道路场景进行语义分割,并在城市景观与CamVid数据集上达到了精度与速度之间的最新平衡,无需使用推理加速或额外的数据支持。 整个方法的架构包括一个名为“深度聚合金字塔合并模块(DAPPM)”的关键组件。当前版本中包含用于分类和语义分割任务的模型代码以及预训练模型。虽然目前尚未提供完整的训练及测试代码,但我们鼓励用户参考现有资源进行本地培训与测试。 要重现我们的实验结果,请采用以下基本技巧:类别平衡样本、在线硬示例挖掘(OHEM)以及1024x1024的裁剪尺寸。此外,我们提供了几种预训练模型以供使用: - DDRNet_23_slim在ImageNet上的表现(top-1错误率: 29.8) - DDRNet_23在ImageNet上的性能(top-1错误率: 24.0) - DDRNet_39在ImageNet上的精度(top-1错误率: 22.6) 这些模型为研究者提供了良好的起点,以进一步探索深度双分辨率网络的潜力。
  • Detectron2 APIBDD100K车
    优质
    本研究利用Detectron2框架及其API,针对BDD100K数据集开展车道分割技术探索,旨在提升自动驾驶环境感知能力。 为了使用Detectron2 API的BDD100K进行车道分割任务,请首先检测您的cuda和torch版本: ```shell nvcc --version pip list | grep torch ``` 根据上述命令的结果,安装适当的PyTorch版本(例如:`torch==1.7.1+cu110`, `torchvision==0.8.2+cu110`, `torchaudio==0.7.2`)。您可以访问[PyTorch官网](https://pytorch.org/)获取特定版本的安装命令。 接下来,安装依赖项: ```shell pip install pyyaml==5.1 ``` 检查gcc版本(opencv已预装): ```shell gcc --version ```
  • [jetson tx2] CUDA9.0_arm
    优质
    本资源提供针对NVIDIA Jetson TX2开发板的CUDA9.0_arm版本驱动及SDK包,适用于进行高性能并行计算和机器学习应用开发。 Jetson TX2 手动安装 CUDA9.0 的步骤如下:此包为 ARM 架构,为了方便以后使用特意保存上传。安装方法是解压后运行 `sudo dpkg -i cuda-xxxx.deb` 命令来依次安装这3个包。
  • Jetson TX2 PWM.docx
    优质
    本文档《Jetson TX2 PWM》探讨了NVIDIA Jetson TX2模块上脉冲宽度调制(PWM)的应用与编程技巧,为开发者提供了详细的实践指导。 本段落将详细介绍如何在Jetson TX2上配置和使用PWM(脉宽调制器)。PWM是一种常见的数字信号处理技术,在电子设备、机器人及自动控制系统中广泛应用。 首先,我们来了解一下Jetson TX2上的PWM功能:它具有八个PWM输出接口,并支持通过sysfs接口或API进行用户空间或驱动程序级别的控制。 激活Jetson TX2的PWM需要经过导出所需PWm输出端口、设置期望周期和占空比以及启用/禁用PWM等步骤。对于四个可通过sysfs直接操作的PWM(分别是GP_PWM1至GP_PWM4,其中最后一个用于风扇),用户可以按照以下方法进行配置: 假设要为GP_PWM1设定参数,可执行如下命令: ``` echo 0 > /sys/class/pwm/pwmchip0/export cd /sys/class/pwm/pwmchip0/pwm0 echo 20000 > period echo 10000 > duty_cycle echo 1 > enable ``` 这将使GP_PWM1以5kHz频率和50%占空比输出脉冲信号。 对于风扇控制,用户需要通过J15连接器的4号针脚来验证PWM工作情况,并且需禁用默认的风扇驱动程序。具体操作包括修改设备树文件(hardware/nvidia/platform/t18x/common/kernel-dt/st18x-common-platform-stegra-186-quill-power-tree-p3489-1000-a00-00.dtsi),添加以下内容: ``` pwm-fan { status = disabled; vdd-fan-supply = <&vdd_fan>; }; ``` 此外,还需要确保风扇控制器的GPIO状态为低电平以允许PWM激活。 本段落详细介绍了如何在Jetson TX2上配置和使用PWM功能,并提供了相应的控制方法。用户可根据具体需求选择合适的设置方式来满足应用要求。
  • TensorRT-Caffe: 在NVIDIA Jetson TX2演示加速了CaffeAlexNet模型...
    优质
    TensorRT-Caffe是针对NVIDIA Jetson TX2平台优化的深度学习推理工具包,能显著提升基于Caffe框架的AlexNet等神经网络模型运行效率。 张量RT-Caffe在NVIDIA Jetson TX2上使用tensorRT加速了AlexNet的Caffe模型。有关中文详细说明,请参考《NVIDIA JETSON TX2 tensorRT加速Caffe实战.pdf》。先决条件:NVIDIA Jetson TX2 CUDA 8.0、人工神经网络张量RT .prototxt文件、.caffemodel文件和.binaryproto文件。建议使用Jetpack 3.1刷新TX2设备,以便自动安装所有必需的工具。 我们使用的Caffe模型尝试对三种不同类型的停车位进行分类,因此在Caffe中采用了AlexNet来实现此任务。输入和输出由Caffe模型的prototxt文件指定: layer { name: data type: Input top: data
  • 移动机器人导航中楼语义论文.pdf
    优质
    本研究探讨了在复杂室内环境中,尤其是楼道场景下,移动机器人的路径规划与自主导航技术。通过引入先进的语义分割算法,旨在提高机器人对环境的理解能力,优化其避障和导航性能,为智能服务机器人的广泛应用提供理论和技术支持。 通过深度学习模型处理室内楼道环境的视觉信息,以帮助移动机器人在该环境下自主行走。为此,将楼道环境中的对象分为路、门、窗户、消防栓、门把手和背景六类,并采用图像语义分割技术实现这些对象的识别。实验中发现由于门把手相对于其他对象较小,影响了其准确识别率;因此改进分类模型为“5 2”模式,解决了这一问题。“5 2”分类模型的基础是全卷积神经(FCN)网络,可初步完成图像分割任务。为了进一步提升FCN网络的分割效果,在三个方向进行了实验研究:a) 提取并融合多个中间特征层;b) 考虑到移动机器人行进中视觉信息的时间序列特性,将递归神经网络(RNN)结构融入FCN模型形成时间递归t-LSTM架构;c) 鉴于二维图像相邻像素间存在依赖关系,构建空间递归s-LSTM网络。这些改进措施显著提升了图像分割效果,在实验结果中显示多层融合加s-LSTM的组合在分割准确性和计算效率方面表现最优。