
Transformer源码解析及Hugging Face实战/NLP应用/预训练模型与分词器
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
本课程深入剖析Transformer架构及其在NLP领域的应用,结合Hugging Face库进行实战演练,涵盖预训练模型和分词技术。
今天要做的任务就是一个调包的过程,但我们需要先了解这个流程。熟悉了这个流程后,在NLP领域的很多问题都可以按照类似的步骤来解决,比如对话生成、机器翻译、文本摘要等任务,你会在脑海中形成一个通用模板。你不再需要每次面对新的子任务时都重新学习一遍。
如今,在NLP领域中所有的任务几乎都可以通过使用Transformer模型结合Hugging Face库来实现。2012年的word2vec技术现在除了科研机构之外已经很少被采用。大多数算法工程师和研究人员都没有机会参与到词向量的制作过程中,因为这需要巨大的计算资源和数据存储空间。
我们需要做的就是在别人已有的模型和词汇基础上进行微调以解决自己的任务需求。不要觉得使用现成的工具很low,这是最便捷的方法。(你自己做的话,不说你是否有足够的计算资源支持,光是存储问题就已经是个大难题了)。在此之前,你需要先配置好深度学习环境。
例如,在transformers库中可以调用一个pipeline模块来进行情感分析任务。
全部评论 (0)
还没有任何评论哟~


