
基于Swin-Transformer和Unet的项目:采用自适应多尺度训练进行腹部五类器官分割
5星
- 浏览量: 0
- 大小:None
- 文件类型:7Z
简介:
本项目结合了Swin-Transformer与U-Net架构,通过创新性的自适应多尺度训练策略,实现了对腹部五种关键器官的精准自动分割。
项目介绍:数据集大小为234MB。
本项目使用的是腹部多脏器5类别分割数据集。
网络在训练了300个epochs后,全局像素点的准确度达到0.989,miou值为0.814。如果进一步增加训练epoch数,性能预计会更优。
代码介绍:
【训练】train 脚本自动执行模型训练任务,并将数据随机缩放至设定尺寸的0.5到1.5倍之间以实现多尺度训练。在utils中的compute_gray函数中保存了mask灰度值于txt文本段落件,同时自动生成网络输出层所需的通道数。
【介绍】学习率采用cosine衰减策略,在run_results目录下可以查看训练集和测试集的损失及IOU曲线图,这些图像由matplotlib库生成。此外还保存有训练日志、最佳权重等信息,其中包含每个类别的IOU值、召回率、精确度以及全局像素点准确率。
【推理】将需要进行预测的图片放置于inference文件夹下,并运行predict脚本即可完成预测过程。
具体使用方法可参考README文档。此项目设计简单易用,适合初学者操作。
全部评论 (0)
还没有任何评论哟~


