
基于Swin-Transformer和Unet的自适应多尺度训练与多类别分割:针对BraTS 3D脑肿瘤图像的2D图片分割项目
5星
- 浏览量: 0
- 大小:None
- 文件类型:ZIP
简介:
本项目采用Swin-Transformer结合Unet架构,创新性地引入了自适应多尺度训练策略,专为BraTS数据库中的3D脑肿瘤图像进行高效的2D切片级多类别分割。
项目介绍:总大小357MB
此项目基于Swin-Transformer和Unet架构,并结合自适应多尺度训练技术进行脑肿瘤的4类别分割任务。经过10个epochs的训练,全局像素点准确度已达到0.97。如果进一步增加训练轮数(epoch),其性能预计会更加优越。
代码介绍:
【训练】train脚本自动执行模型训练过程,并通过随机缩放数据至设定尺寸的0.5到1.5倍之间实现多尺度训练,以适应不同大小的数据输入。此外,在utils中的compute_gray函数负责将mask灰度值保存在txt文件中并定义网络输出通道数量。
【介绍】学习率采用余弦退火策略调整,并且损失和IOU曲线可以在run_results文件夹内查看。这些数据由matplotlib库绘制,训练日志、最佳模型权重等信息同样被妥善保存下来,在训练日志中可以找到每个类别的iou值、召回率、精确度以及全局像素点准确率。
【推理】将待预测的图像放置于inference目录下,并直接运行predict脚本即可完成推理过程,无需额外设置参数。
具体使用方法请参考README文件。该项目设计简单易用,即使是初学者也能轻松上手操作。
全部评论 (0)
还没有任何评论哟~


