
笔记:动手学深度学习PyTorch(机器翻译、Transformer、注意力机制及序列到序列模型)
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
本书《动手学深度学习》的PyTorch版笔记聚焦于机器翻译技术,深入探讨了Transformer模型、注意力机制和序列到序列模型等内容。
机器翻译是指将一段文本从一种语言转换为另一种语言的过程,通常简称为MT。利用神经网络进行这种转换的技术被称为神经机器翻译(NMT)。与传统方法不同的是,其输出是一个由多个单词组成的序列而非单个单词,并且目标语句的长度可能不同于源语句。
数据预处理是将原始文本清洗并转化为适合输入到神经网络的数据格式的过程。例如,在这个例子中,我们从一个名为`fra.txt`的文件读取了大约1000字符的内容:
```python
with open(/home/kesci/input/fraeng6506/fra.txt, r) as f:
raw_text = f.read()
print(raw_text[0:1000])
```
这段代码展示了如何从文件中读取数据并输出前一千个字符,以便进一步处理。
全部评论 (0)
还没有任何评论哟~


