
Keras-Attention仓库收录了LSTM和卷积神经网络中注意力机制的源代码。
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
Attention:注意力机制在Keras中的部署需要配置环境,包括TensorFlow-GPU版本1.13.1和Keras版本2.1.5。 在本库中,我将注意力机制应用于LSTM网络的每个时间步,其核心目标是评估输入样本的重要性。 我们所使用的样本数据集如下:X = [[-21.03816538, 1.4249185], [3.76040424, -12.83660875], [1., 1.], [-10.17242648, 5.37333323], [2.97058584, -9.31965078], [3.69295417, 8.47650258], [-6.91492102, 11.00583167], [-0.03511656, -]]
全部评论 (0)
还没有任何评论哟~


