Advertisement

AlphaPose: 实时且精准的多人体态估计与追踪系统

  •  5星
  •     浏览量: 0
  •     大小:None
  •      文件类型:None


简介:
AlphaPose是一款先进的实时多人姿态估计和跟踪系统,以其高精度和快速处理能力著称,在复杂场景中能有效识别并持续跟踪多个个体的姿态。 消息!2020年8月:更强的追踪功能发布!包括全身(脸部、手部、脚部)关键点识别,现已可用。 2019年12月:AlphaPose 发布了更小体积但精度更高的版本! 2019年4月:AlphaPose 正式发布。在COCO验证集上以每秒23帧的速度运行。 2018年12月:集成 PoseFlow 功能,速度提升三倍,并支持姿态跟踪结果可视化。 2018年9月:AlphaPose 发布,在COCO验证集上达到71 mAP(平均每张图像4.6人)和每秒20帧的运行速度。此外,它还是首个在COCO数据集上实现超过70+ mAP(具体为75 mAP),以及在MPII数据集上达到80+ mAP(准确地说是82.1 mAP)的开源多人姿势估计系统。 AlphaPose 是一种高效的多人姿态估计算法,能够精准匹配帧内对应于同一个人的姿态。为了实现这一点,我们提供了一种名为 PoseFlow 的高效在线姿态跟踪技术。

全部评论 (0)

还没有任何评论哟~
客服
客服
  • AlphaPose:
    优质
    AlphaPose是一款先进的实时多人姿态估计和跟踪系统,以其高精度和快速处理能力著称,在复杂场景中能有效识别并持续跟踪多个个体的姿态。 消息!2020年8月:更强的追踪功能发布!包括全身(脸部、手部、脚部)关键点识别,现已可用。 2019年12月:AlphaPose 发布了更小体积但精度更高的版本! 2019年4月:AlphaPose 正式发布。在COCO验证集上以每秒23帧的速度运行。 2018年12月:集成 PoseFlow 功能,速度提升三倍,并支持姿态跟踪结果可视化。 2018年9月:AlphaPose 发布,在COCO验证集上达到71 mAP(平均每张图像4.6人)和每秒20帧的运行速度。此外,它还是首个在COCO数据集上实现超过70+ mAP(具体为75 mAP),以及在MPII数据集上达到80+ mAP(准确地说是82.1 mAP)的开源多人姿势估计系统。 AlphaPose 是一种高效的多人姿态估计算法,能够精准匹配帧内对应于同一个人的姿态。为了实现这一点,我们提供了一种名为 PoseFlow 的高效在线姿态跟踪技术。
  • AlphaPose姿(Python)
    优质
    简介:AlphaPose是一款基于Python的先进工具,专门用于实现高效、准确的多人姿态识别与跟踪,在计算机视觉领域表现卓越。 AlphaPose 是一种高精度的多人姿态估计系统,在COCO数据集上实现了72.3 mAP(比Mask-RCNN高出8.2个百分点),在MPII数据集上的mAP值达到了82.1,是首个实现如此高水平表现的开源系统。为了将同一个人的所有姿势关联起来,AlphaPose 提供了一个名为 Pose Flow 的在线姿态跟踪器,并且它还是第一个在 PoseTrack 挑战数据集中展示性能的系统。 以下是 AlphaPose 过去的一些重要发布和更新: - 2019 年 12月:发布了 v0.3.0 版本,实现了更小模型与更高精度。 - 2019年4月:AlphaPose 的 MXNet 版本正式推出,在 COCO 验证集上以每秒处理23帧的速度运行。 - 2019 年2月:CrowdPose 已被集成到 AlphaPose 中,进一步增强了系统功能。 - 2018年12月:发布了 PoseFlow 的通用版本,速度比之前快了三倍,并支持姿势跟踪结果的可视化展示。 - 2018年9月:AlphaPose v0.2.0 版本发布,在COCO验证集上以每秒处理20帧的速度运行(平均每张图像4.6人)并达到71mA。
  • 跌倒检测AlphaPose + ST-GCN + SORT
    优质
    本项目结合AlphaPose姿态估计、ST-GCN时空图卷积网络及SORT目标跟踪技术,构建了高效的人体跌倒检测与追踪系统。 人体跌倒检测与追踪系统采用Tiny-YOLO oneclass模型来识别帧中的每个人,并通过获取骨骼姿势进行动作预测。该模型每30帧预测一次动作,目前支持七种不同的动作:站立、行走、坐下、躺下、站起、坐起和跌倒。 为了确保系统的高效运行,Python版本需要高于3.6,而Torch的最低要求为1.3.1。原始测试环境配置包括i7-8750H CPU @ 2.20GHz x12处理器及GeForce RTX 2070显卡(配备CUDA 10.2)。 该项目训练了一个新的Tiny-YOLO oneclass模型,以优化人体检测并减小模型大小。此新模型通过使用旋转增强的人员关键点数据集进行训练,在各种角度姿势下实现了更可靠的人员检测性能。 对于动作识别部分,则利用跌倒检测数据集中提取的人体骨骼信息(采用AlphaPose技术)来标记每帧的动作,进而对ST-GCN模型进行了训练以实现准确的动作分类。
  • 基于DeepSORTYOLOv3及TensorFlow
    优质
    本项目构建了一个结合DeepSORT和YOLOv3的实时多人追踪系统,利用TensorFlow框架实现在复杂场景下的高效目标检测与跟踪。 姿态检测和跟踪项目使用较旧版本的软件创建,因此一些模块的功能不够高效且功能较为简单。推荐尝试其他作者实现的Pytorch版本等相关工作。 这项工作目前支持tiny_yolo v3,但仅用于测试目的;如需训练模型,请在Darknet中进行或参考后续的工作内容来完成训练过程。此外,此项目还能跟踪COCO类别中的多个对象,因此请注意修改yolo.py文件中的相关类定义。您还可以使用相机来进行测试。 快速开始指南:首先下载YOLOv3或tiny_yolov3的权重文件,并将Darknet YOLO模型转换为Keras模型;或者直接使用已转换好的yolo.h5模型(需确保环境兼容),将其放入model_data文件夹中。最后,通过命令行运行YOLO_DEEP_SORT:python demo.py
  • AlphaPose姿检测
    优质
    AlphaPose是一款先进的人体姿态估计工具,通过深度学习技术准确识别图像和视频中的人物动作与姿势。 AlphaPose 是一个高精度的多人姿态估计系统,在COCO数据集上实现了72.3 mAP(超越Mask-RCNN 8.2个百分点),在MPII数据集上的mAP达到了82.1。此外,为了关联同一个人的所有姿态,AlphaPose提供了名为Pose Flow的在线姿态跟踪器,该工具在PoseTrack挑战赛的数据集中取得了66.5 mAP和58.3 MOTA的成绩,超过了现有的最佳技术精度。
  • Yolov5_DeepSort_Pytorch:基于YOLO v5深度排序
    优质
    Yolov5_DeepSort_Pytorch是一个结合了YOLOv5目标检测和DeepSORT跟踪算法的先进项目,实现高效、精准的多目标实时追踪。此开源代码为复杂场景下的视频分析提供了强大工具。 本项目介绍了一个使用PyTorch实现的YOLOv5简化版本,并结合了深度排序算法来跟踪人员。该项目首先通过YOLOv5检测图像中的对象,然后过滤掉所有非人的检测结果。接下来,将剩余的人体检测数据传递给基于深度学习的方法进行后续处理,以确定每个人员的位置和运动轨迹。 项目实现参考了两篇文章的内容:《使用深度关联指标进行简单的在线和实时跟踪》以及《YOLOv4: 实现最佳速度与准确性的目标检测方法》。为了运行该项目,请确保安装Python 3.8或更高版本,并且已通过pip install -U -r requirements.txt命令安装了所有列出在requirements.txt文件中的依赖项,包括torch>=1.7。 此外,项目支持Docker环境进行开发和测试。请使用nvidia-docker并确保Nvidia驱动程序版本大于等于440.44来运行相关容器镜像。最后,在开始跟踪之前,请递归克隆整个存储库至本地环境中:git clone [repository URL](此处省略实际的URL)。
  • 基于轻量化OpenPose深度学习模型姿
    优质
    本研究提出了一种优化版的OpenPose模型,适用于实时环境下的多人姿态识别和追踪任务,特别针对计算资源有限的应用场景进行改进。通过减少模型复杂度及参数数量,实现在保证准确性的同时显著提高处理效率和速度。 一个轻量化模型在经典OpenPose基础上进行了改进,适用于多人实时姿态估计,并能记录每个人的ID进行跟踪。该深度学习模型的网络结构简单化,便于集成到Python或C++环境中,非常适合计算机视觉研究者深入探索。
  • 绘制AR物特征点
    优质
    本项目专注于开发实时增强现实(AR)技术,通过精确捕捉并绘制物理空间中的三维物体模型,并实现对关键特征点的高效、稳定的追踪功能。 Feature Tracking and Synchronous Scene Generation with a Single Camera项目的完整版1.0使用ORB算法检测特征点,并利用LK光流跟踪技术进行追踪。通过solvepnp计算相机姿态,结合OpenGL绘制AR物体并实现实时跟踪与重现。
  • PyTorch下Python姿项目
    优质
    本项目基于PyTorch框架,采用Python语言实现实时多人姿态估计功能。通过深度学习技术处理视频流数据,精准捕捉人体关键点信息,在线展示动态姿态变化。 PyTorch实时多人姿态估计项目的实现。
  • 非接触式视线
    优质
    本设计提出了一种非接触式的实时视线追踪系统,旨在通过先进的计算机视觉技术准确捕捉和分析用户的视线移动。该系统无需佩戴额外设备,能够广泛应用于人机交互、虚拟现实等领域,提供更加自然流畅的用户体验。 为了方便残疾人和老年人使用计算机进行信息交互,设计了一种非接触式的低成本视线追踪系统。该系统采用一种双环形红外光源,通过交替照射用户脸部的方式获取亮瞳和暗瞳的相邻两帧图像,并利用单CCD摄像机捕捉这些图像。通过对这两帧图像做差处理来确定瞳孔的位置,再使用椭圆拟合的方法求得瞳孔中心位置;同时,在暗瞳图像上获得普洱钦斑(即虹膜)的中心点信息,从而可以精确地计算出局部视线的方向。 考虑到人类视线移动的特点,该系统还提出了一种结合神经网络和卡尔曼滤波技术的方法来进行瞳孔跟踪。最后,本段落给出了视线映射模型以及相应的校准方法。