Advertisement

基于TransUnet与Swin-Unet的医学图像语义分割对比研究:针对腹部器官的多类别分割

  •  5星
  •     浏览量: 0
  •     大小:None
  •      文件类型:7Z


简介:
本研究探讨了TransUnet和Swin-Unet在腹部器官多类别分割任务中的性能差异,旨在为医学影像分析提供有效算法选择。 数据集用于腹部器官多类别图像的语义分割任务,Dice系数约为0.8,IoU为0.7,存储在data目录下的训练集和验证集中。 代码支持一键运行,并提供两种网络模型供选择:TransUnet 和 Swin-Unet。学习率采用cos余弦退火算法调整,可以通过修改base-size参数来适应大尺度数据的训练需求。优化器使用了AdamW。 评估指标包括Dice系数、IoU、召回率(recall)、精确度(precision)、F1分数以及像素准确率等,代码会在每个epoch结束后对训练集和验证集进行自动评估,并将结果保存在runs目录下的json文件中。 推理阶段采用可视化界面操作:运行infer脚本后会启动本地网页服务,用户可以通过上传图片来查看模型的分割效果。

全部评论 (0)

还没有任何评论哟~
客服
客服
  • TransUnetSwin-Unet
    优质
    本研究探讨了TransUnet和Swin-Unet在腹部器官多类别分割任务中的性能差异,旨在为医学影像分析提供有效算法选择。 数据集用于腹部器官多类别图像的语义分割任务,Dice系数约为0.8,IoU为0.7,存储在data目录下的训练集和验证集中。 代码支持一键运行,并提供两种网络模型供选择:TransUnet 和 Swin-Unet。学习率采用cos余弦退火算法调整,可以通过修改base-size参数来适应大尺度数据的训练需求。优化器使用了AdamW。 评估指标包括Dice系数、IoU、召回率(recall)、精确度(precision)、F1分数以及像素准确率等,代码会在每个epoch结束后对训练集和验证集进行自动评估,并将结果保存在runs目录下的json文件中。 推理阶段采用可视化界面操作:运行infer脚本后会启动本地网页服务,用户可以通过上传图片来查看模型的分割效果。
  • Unet改进:引入attenUnet模块进行Synapse实验
    优质
    本研究在Unet基础上创新性地引入了attenUnet模块,并进行了针对Synapse数据库中多器官图像的详细语义分割实验,通过与原模型效果比较,深入分析改进模块的优势及应用前景。 基于Unet改进系列:加入attenUnet模块对Synapse多器官图像语义分割的实验对比 本研究使用了Synapse数据集进行多器官(包括主动脉、胆囊、脾脏、左肾及右肾等)的语义分割任务,该数据集已划分成训练和验证两个部分,并存放于data目录下。 网络架构:项目中包含两种类型的神经网络模型——Unet和Attention_Unet。通过调整train脚本中的参数即可实现对比实验,默认设置为100个epoch,学习率采用cos余弦退火策略,初始值设为0.01并逐渐降至0.00001。对于大规模训练需求,可以通过修改img-size参数来适应不同规模的图像数据集。优化器选用的是AdamW。 评估指标:除了传统的精度(pixel accuracy)、召回率(recall)和F1分数外,还使用了Dice系数和交并比(IoU)作为主要评价标准。在每个训练周期结束时,模型会在训练集及验证集上进行测试,并将结果保存至runs目录下的json文件中。 推理过程:当需要对新图像进行预测时,只需将待处理的图片放置于inferenceimg文件夹内,程序会自动对其进行语义分割并生成相应的掩膜图。最终输出分为两部分——infer_get用于存放阈值处理后的结果;show则展示原始图像与对应分割效果。 实验结果显示: - Unet模型的Dice系数为0.934,IoU为0.878; - Attention_Unet模型在相同任务上取得了更佳的表现,其Dice系数达到0.952,而IoU也提高到了0.909。
  • Swin-Unet-Transformer网络
    优质
    本研究提出了一种基于Swin-Unet-Transformer架构的新型二分类语义分割模型,旨在提高复杂场景下图像细节识别与分割精度。 1. 增加了数据加载部分,并优化了二分类的损失函数。 2. 添加了必要的中文注释以便更好地理解代码。 3. 附带了自己的数据集以供测试使用。 4. 如有问题,欢迎随时联系交流。
  • Swin-Transformer和Unet自适应尺度训练BraTS 3D脑肿瘤2D项目
    优质
    本项目采用Swin-Transformer结合Unet架构,创新性地引入了自适应多尺度训练策略,专为BraTS数据库中的3D脑肿瘤图像进行高效的2D切片级多类别分割。 项目介绍:总大小357MB 此项目基于Swin-Transformer和Unet架构,并结合自适应多尺度训练技术进行脑肿瘤的4类别分割任务。经过10个epochs的训练,全局像素点准确度已达到0.97。如果进一步增加训练轮数(epoch),其性能预计会更加优越。 代码介绍: 【训练】train脚本自动执行模型训练过程,并通过随机缩放数据至设定尺寸的0.5到1.5倍之间实现多尺度训练,以适应不同大小的数据输入。此外,在utils中的compute_gray函数负责将mask灰度值保存在txt文件中并定义网络输出通道数量。 【介绍】学习率采用余弦退火策略调整,并且损失和IOU曲线可以在run_results文件夹内查看。这些数据由matplotlib库绘制,训练日志、最佳模型权重等信息同样被妥善保存下来,在训练日志中可以找到每个类别的iou值、召回率、精确度以及全局像素点准确率。 【推理】将待预测的图像放置于inference目录下,并直接运行predict脚本即可完成推理过程,无需额外设置参数。 具体使用方法请参考README文件。该项目设计简单易用,即使是初学者也能轻松上手操作。
  • 【论文+代码】Swin-UnetUnet纯Transformer模型
    优质
    本文提出了一种基于纯Transformer架构的新型医学图像分割模型——Swin-Unet。该模型借鉴了U-Net的设计理念,利用Swin Transformer作为其核心组件,展现了在医学影像领域中的卓越性能和潜力。同时提供了完整的代码实现以供参考和研究使用。 【论文+代码】Swin-Unet:一种类似Unet的纯Transformer模型用于医学图像分割。代码已亲测可运行,想要对代码进行改进可以从main.py文件开始。
  • Transformer-TransUnet
    优质
    TransUnet是一种创新的深度学习模型,它融合了Transformer架构与U型网络结构,专为医学影像中的二分类语义分割任务设计。该模型通过自注意力机制增强了长距离依赖信息的学习能力,提高了分割精度和效率,在多项基准测试中展现出卓越性能。 这段文字描述的是使用Transformer进行语义分割时遇到的问题,并提到将TransUnet网络模型单独拿出来使用,同时自己编写了加载数据集的方法以提高使用的便利性。
  • Swin-Transformer
    优质
    本研究提出了一种基于Swin-Transformer模型的创新方法,专门针对图像和语义分割任务,结合了卷积神经网络与变换器架构的优势,显著提升了复杂场景下的目标识别精度。 可以使用自己的数据集进行训练。如果选择使用自定义的数据集,则需要先将标签转换为VOC格式,相关代码位于tools文件夹下的voc.py中。具体流程是通过train脚本训练网络模型,并利用prediction脚本来输出分割结果。图片应放置在data文件夹下,但请注意更换数据集时需确保图像均为灰度图。 初始任务主要针对医学图像的分割问题进行设计,但也适用于其他类型的图像处理工作。该系统包含滑窗操作功能,采用具有层级化设计特点的Swin Transformer模型。具体来说,在滑窗操作中包括不重叠的local window和带有一定重叠区域的cross-window机制。通过将注意力计算限制在一个窗口内的方式,一方面引入了CNN卷积操作中的局部性特征,另一方面也有效减少了计算资源的需求量。
  • Swin-Transformer和Unet项目:采用自适应尺度训练进行
    优质
    本项目结合了Swin-Transformer与U-Net架构,通过创新性的自适应多尺度训练策略,实现了对腹部五种关键器官的精准自动分割。 项目介绍:数据集大小为234MB。 本项目使用的是腹部多脏器5类别分割数据集。 网络在训练了300个epochs后,全局像素点的准确度达到0.989,miou值为0.814。如果进一步增加训练epoch数,性能预计会更优。 代码介绍: 【训练】train 脚本自动执行模型训练任务,并将数据随机缩放至设定尺寸的0.5到1.5倍之间以实现多尺度训练。在utils中的compute_gray函数中保存了mask灰度值于txt文本段落件,同时自动生成网络输出层所需的通道数。 【介绍】学习率采用cosine衰减策略,在run_results目录下可以查看训练集和测试集的损失及IOU曲线图,这些图像由matplotlib库生成。此外还保存有训练日志、最佳权重等信息,其中包含每个类别的IOU值、召回率、精确度以及全局像素点准确率。 【推理】将需要进行预测的图片放置于inference文件夹下,并运行predict脚本即可完成预测过程。 具体使用方法可参考README文档。此项目设计简单易用,适合初学者操作。