Advertisement

一种融合Alphapose与LSTM的人体跌倒识别模型。

  •  5星
  •     浏览量: 0
  •     大小:None
  •      文件类型:None


简介:
Numerous Human-Body-Fall-Down Detection models encounter challenges such as reduced adaptability and elevated false detection rates across diverse detection environments. Addressing these limitations, this research introduces a Human-Body-Fall-Down Detection Model leveraging human skeleton keypoints and an LSTM neural network. Specifically, the model utilizes Alphapose to continuously track the skeleton keypoints of the human body across multiple frames. Subsequently, the coordinate sequences derived from these keypoints are segmented into X and Y coordinate sequences, which are then independently fed into an LSTM neural network to capture temporal characteristics. Finally, the output vector from the LSTM’s hidden layer is processed through a fully connected layer to yield the detection results. This study conducted experiments using publicly available datasets – M uHAVi-MAS and Le2i – and compared the performance of this model against a variety of other detection models. The findings demonstrate that this proposed model exhibits notably high detection accuracy in a wide range of scenarios, encompassing various viewpoints and multiple body poses during falls.

全部评论 (0)

还没有任何评论哟~
客服
客服
  • AlphaposeLSTM检测
    优质
    本研究提出了一种结合AlphaPose姿态估计和LSTM循环神经网络的创新人体跌倒检测模型,旨在提高跌倒事件识别的准确性和实时性。 许多人体跌倒检测模型面临适应性较低及误检率较高的问题,在不同的检测场景下尤为明显。针对这些问题,本研究提出了一种基于人体关键点骨架与LSTM神经网络的人体跌倒检测模型。该模型通过Alphapose算法提取连续多帧中人体的关键点,并将这些坐标序列分别划分为X和Y坐标序列;然后将其输入到LSTM神经网络以提取时间顺序特征;最后,把LSTM隐藏层的输出向量送入全连接层来获取最终结果。本研究使用公共数据集MuHAVIMAS和Le2i进行实验,并与其他多种检测模型进行了比较。结果显示,该模型在多场景、多视角及不同姿态下具有较高的检测准确率。
  • 检测追踪:AlphaPose + ST-GCN + SORT
    优质
    本项目结合AlphaPose姿态估计、ST-GCN时空图卷积网络及SORT目标跟踪技术,构建了高效的人体跌倒检测与追踪系统。 人体跌倒检测与追踪系统采用Tiny-YOLO oneclass模型来识别帧中的每个人,并通过获取骨骼姿势进行动作预测。该模型每30帧预测一次动作,目前支持七种不同的动作:站立、行走、坐下、躺下、站起、坐起和跌倒。 为了确保系统的高效运行,Python版本需要高于3.6,而Torch的最低要求为1.3.1。原始测试环境配置包括i7-8750H CPU @ 2.20GHz x12处理器及GeForce RTX 2070显卡(配备CUDA 10.2)。 该项目训练了一个新的Tiny-YOLO oneclass模型,以优化人体检测并减小模型大小。此新模型通过使用旋转增强的人员关键点数据集进行训练,在各种角度姿势下实现了更可靠的人员检测性能。 对于动作识别部分,则利用跌倒检测数据集中提取的人体骨骼信息(采用AlphaPose技术)来标记每帧的动作,进而对ST-GCN模型进行了训练以实现准确的动作分类。
  • 检测检测
    优质
    跌倒检测与识别技术致力于通过传感器和算法监测人体动作,自动判断是否发生跌倒事件,尤其适用于老年人及行动不便者,旨在及时发现并响应跌倒情况,保障个人安全。 深度学习目标检测端到端识别自建数据集效果很棒,源码交流欢迎参与。作者:A.FaceRec,请参见下方图片描述。 (注:原文中没有包含实际的插入图片操作或具体图示内容,故此处仅保留了提及“上图”的部分,并未直接展示任何图像。)
  • 检测目标数据集
    优质
    该数据集专注于行人摔倒及跌倒场景,包含丰富标注信息,旨在促进行人行为分析和智能监控系统中自动检测与响应跌倒事件的研究。 数据集已经划分为训练集和验证集,其中训练集包含7630张图片,验证集包含152张图片。所有图像均已标注,并且标签以txt格式存储,同时提供了一个yaml文件用于模型训练配置。该数据集已通过测试并证明有效,在使用YOLOv8n进行测试时,平均mAP50达到了82.3%,其中跌倒类别的mAP50为94.8%。数据集中包含两类:站立的人和摔倒的人,格式符合标准的YOLO要求。
  • 检测基于Yolov5
    优质
    本研究采用YOLOv5框架进行跌倒检测与识别,旨在提升算法精度及实时性,为老人看护、运动安全等领域提供有效技术支撑。 使用Yolov5进行摔倒检测的文件包含了项目所需的所有内容,包括环境安装文件、已训练好的模型权重文件以及官方的detect文件和自写的demo。运行demo_person_fall.py即可开始识别图片或视频,并可根据需要自行更改路径。
  • Android检测Demo.zip
    优质
    本Demo为一款基于Android系统的跌倒检测应用,通过内置算法实时监测用户状态,在发生意外跌倒时自动发出警报并通知预设联系人,保障个人安全。 跌倒检测识别Android Demo包括以下内容: 1. 跌倒检测数据集。 2. 使用YOLOv5实现的跌倒检测方法,并包含相关训练代码。 3. 在Android设备上实现实时跌倒检测的功能,提供源码支持。 4. C++版本的实时跌倒检测实现,同样提供了源码。
  • 检测 - lightweight_openpose - 附带资源
    优质
    本项目基于lightweight_openpose模型实现跌倒检测与摔倒识别技术,旨在提供实时安全监测解决方案,并配套相关资源以供研究和开发使用。 跌倒识别与摔倒识别相关的资源包括使用lightweight_openpose的附件。
  • 基于Yolov5检测技术
    优质
    本项目采用先进的YOLOv5算法,致力于提升人体姿态和行为的精确识别能力,尤其在跌倒事件的即时检测方面具有显著优势。 使用YOLOv5训练模型来检测跌倒,并且用10000张数据集完成了训练工作。