
CCT:[CVPR 2020] 基于交叉一致性的半监督语义分割训练
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
本文提出了一种基于交叉一致性的半监督语义分割方法,在CVPR 2020上发表。该方法利用少量标注数据和大量未标注数据,提高模型在语义分割任务上的性能。
本仓库包含了CVPR 2020论文《Semi-Supervised Semantic Segmentation with Cross-Consistency Training》的官方实现。该方法采用传统的半监督学习一致性训练框架进行语义分割,并扩展至弱监督学习及跨域应用。
文中主要强调了以下几点:
1. 语义分割的一致性训练:观察到对于密集型任务,如语义分割,在隐藏表示上强制执行集群假设比在输入数据上更容易实现。
2. 跨一致性训练(CCT):提出了一种新的半监督语义分割方法——Cross-Consistency Training (CCT),通过定义多种扰动方式,并展示了对编码器输出进行一致性的有效性和优越性,而非直接作用于输入图像。
3. 多域弱标签和像素级标签的应用:所提方案非常简洁灵活,能够轻松扩展至使用来自多个不同领域的图像级别及像素级别的标注信息。
该方法为半监督语义分割提供了新的视角,并展示了其在多种条件下的适用性与灵活性。
全部评论 (0)
还没有任何评论哟~


