
SwinTransformer改进:增加SelfAttention自注意力层
5星
- 浏览量: 0
- 大小:None
- 文件类型:ZIP
简介:
本文介绍了对Swin Transformer模型进行改进的方法,通过引入额外的Self-Attention层以增强模型处理长距离依赖的能力。这一改动旨在提高模型在视觉任务中的表现效果。
SwinTransformer 改进:添加 SelfAttention 自注意力层,脚本可以直接复制替换模型文件即可。
全部评论 (0)
还没有任何评论哟~


