
Transformer-Explainability: [CVPR 2021] 超越注意力可视化的Transformer可解释性官方PyTorch...
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
Transformer-Explainability是CVPR 2021的一篇论文,提供了超越传统注意力可视化的深度理解Transformer模型的新方法,并开放了官方的PyTorch实现。
2021年3月15日更新:
2021年2月28日:我们的论文被CVPR 2021接受了!
2021年2月17日:
介绍的正式实现于2021年1月5日发布。我们提出了一种新颖的方法,可以可视化基于Transformer模型在视觉和NLP任务中的分类过程,并且能够展示每个类别的解释。该方法包含三个阶段:
- 使用新的LRP公式计算每个关注矩阵的相关性。
- 通过反向传播梯度来确定与特定类别相关的注意力矩阵的权重。
- 利用具有推出功能的图层聚合平均各个注意力头。
请注意,您可以通过运行本段落中的两个类别的具体示例来进行测试。如果您希望添加另一个输入图像,请将其加入相应的文件夹,并使用generate_visualization函数(通过设置class_index={class_idx}),不指定索引将默认可视化最高级别的类别。
全部评论 (0)
还没有任何评论哟~


