
人工智能项目实践:利用基于Transformer的预训练模型在ACE2005数据集中执行事件抽取任务.zip
5星
- 浏览量: 0
- 大小:None
- 文件类型:None
简介:
本项目旨在通过使用基于Transformer架构的预训练模型,在ACE2005数据集上进行事件抽取,以提升信息提取的准确性和效率。
在ace2005数据集上进行事件抽取任务时,使用了BERT、OpenAI-GPT2、ALBERT、XLM、Roberta、XLNet、Ctrl、DistilBert以及TransfoXL等预训练语言模型,并基于nlpcl-lab的bert-event-extraction框架进行了代码修改。在原项目的模型构建部分中,我们用transformers包和CRF模型进行替换。
整个任务采用序列标注的方式完成,未使用任何辅助信息。首先利用crf进行触发词识别,然后根据触发词的结果再通过crf进行论元识别。当预训练模型选择xlm-roberta-large时,trigger-f1得分为0.72;argument-f1得分为0.45,并且在argument部分提升了0.05。
全部评论 (0)
还没有任何评论哟~


