Advertisement

maxent-ner-tagger:最大熵命名实体识别(NER)源代码。

  •  5星
  •     浏览量: 0
  •     大小:None
  •      文件类型:None


简介:
最大熵NER标记器可以方便地在线获取。该项目的核心目标在于实施和提供培训。 绝大多数构建器功能都依赖于实现,并由Python / Cython编写的、具备工业级实力的开源NLP库来完成。 为了进行分类任务,采用了基于最大熵(MaxEnt)分类器的方案。 具体实施细节方面,该任务所依赖的数据集是一个语料库,其主要内容来源于路透社的新闻数据。 数据文件已经完成了预处理步骤,并且每一行都包含了单个令牌,同时标注了词性(POS)标签、BIO(开始、内部、外部缩写)组块标签以及相应的NER标签。 实验结果表明,SpaCy的内置功能在进行工程处理方面表现尤为出色。 通常情况下,借助外部单词列表,例如作为一部分分布的Wikipedia地名词典等资源,可能会导致标记准确性的降低。 由于数据文件所占用的存储空间相对较大,因此最终提交的版本中并未包含地名词典的源代码及相关文件。 此外,我尝试通过将之前的状态或标记信息作为输入特征来提升模型的性能表现。 然而,令人惊讶的是,模型性能并没有显著提升,这可能源于每个标签都直接从模型中编码的相同特征。

全部评论 (0)

还没有任何评论哟~
客服
客服
  • MaxEnt-NER-Tagger: (NER)
    优质
    MaxEnt-NER-Tagger是一款基于最大熵模型的高效命名实体识别(NER)工具包。此代码库为自然语言处理任务提供了精准的实体抽取功能,助力于信息提取与语义理解研究。 最大熵NER标记器可以在线获取。该项目的目标是实施并训练模型。大多数功能构建工具的功能都是使用一个强大的开源自然语言处理库实现的,该库用Python/Cython编写,并具有工业级实力。为了分类任务,采用了最大熵(MaxEnt)分类器。 数据集主要由路透社新闻组成,经过预处理的数据文件中每行包含一个标记、词性标签、BIO组块标签以及相应的NER标签。实验表明,SpaCy内置的特征工程功能最为有效。尝试使用外部词汇表如Wikipedia地名词典通常不会提高标注准确性。 由于数据集规模较大,在最终提交时未包括地名词典的相关源代码和文件。此外,我还通过将先前的状态/标记作为额外的功能来提升模型性能进行了试验,但结果发现这并未显著改变模型的表现,可能是因为每个标签仍然在模型中以其他特征的形式存在。
  • 基于BERT的PyTorchNER
    优质
    这段简介可以描述为:“基于BERT的PyTorch命名实体识别(NER)源码”是一个利用预训练语言模型BERT和深度学习框架PyTorch实现的高效准确的自然语言处理工具,专用于从文本中自动抽取实体信息。 伯特·纳尔使用Google的BERT进行CoNLL-2003命名实体识别任务。通过Python训练模型,并用C++进行推理。安装所需库需执行如下命令:`pip3 install -r requirements.txt`,随后运行脚本 `python run_ner.py --data_dir=data/ --bert_model=bert-base-cased --task_name=ner --output_dir=out_base --max_seq_length=128 --do_train --num_train_epochs 5 --do_eval --warmup_proportion=0.1`。训练完成后,BERT库在验证数据上的表现如下:PER类别的精确度为0.9677,召回率为0.9745。
  • MSRA(NER数据集
    优质
    MSRA NER是微软亚洲研究院开发的一个汉语命名实体识别数据集,包含大量标注的人名、地名和组织机构名称,广泛应用于自然语言处理研究。 我们收藏的二十余册出版物来自晋察冀抗日根据地(1937年—1945年)。
  • 中文NER数据集
    优质
    中文NER(Named Entity Recognition)数据集是一套专门用于识别中文文本中人名、地名和组织机构等命名实体的语料库,旨在促进自然语言处理技术的发展。 中文命名实体识别数据集非常实用。它涵盖了组织、机构和个人三个方面的实体。
  • BIO(NER)语料库.rar
    优质
    本资源为BIO标记体系的命名实体识别(NER)语料库压缩包,适用于训练和评估自然语言处理中的实体抽取模型。 BIO NER 命名实体识别语料集。
  • 基于双向LSTM的(NER)
    优质
    本研究提出了一种基于双向长短期记忆网络(Bi-LSTM)的命名实体识别模型,有效提升了NER任务中的实体边界与类型判定精度。 使用双向LSTM进行命名实体识别(NER)可以提高模型对序列数据的理解能力,因为它同时考虑了上下文的信息。这种方法在处理自然语言任务中表现出了很好的效果。
  • MSRA-NER中文
    优质
    MSRA-NER是微软亚洲研究院开发的一种先进的中文文本处理工具,专注于识别和分类文本中的名称实体,如人名、地名等,以支持信息抽取与问答系统。 MSRA-NER 数据集由微软亚洲研究院发布,其目标是识别文本中具有特定意义的实体,包括人名、地名和机构名。
  • 基于BERT的中文NER)系统
    优质
    本研究开发了一种基于BERT模型的高效中文命名实体识别(NER)系统,显著提升了对中文文本中人名、地名和组织机构等实体的准确识别能力。 伯特·中国人前言使用预训练语言模型BERT进行中文命名实体识别(NER)的尝试,并对BERT模型进行了微调。PS:请参考最新发布的代码以了解具体用法。 从下载bert源代码,存放在路径下的“bert”文件夹中;同时,请将模型放置在“checkpoint”文件夹下。使用BIO数据标注模式,并利用人民日报的经典数据进行训练: python BERT_NER.py --data_dir=data/ --bert_config_file=checkpoint/bert_config.json --init_checkpoint=checkpoint/bert_model.ckpt --vocab_file=vocab.txt --output_d
  • 基于BERT的中文(BERT-CH-NER
    优质
    简介:本项目采用BERT模型进行优化,专注于提升中文文本中的人名、地名和机构团体名称等实体的自动识别精度,旨在提供高效准确的中文NER服务。 基于BERT的中文数据集下的命名实体识别(NER)是通过修改tensorflow官方代码实现的,在Tensorflow 1.13 和Python 3.6环境下运行良好,但在TensorFlow2.0中会出现错误。在搜狐举办的文本比赛中,我使用了基准模型来进行实体识别,该模型采用了BERT以及结合了BERT、LSTM和CRF的方法。仅用BERT的结果如下所示(具体评估方案请参考比赛说明)。这里只进行了实体部分的测试,并将所有情感标注为POS进行嘲笑效果的验证。采用BERT + LSTM + CRF方法得到结果如下:训练、验证及测试阶段的相关环境变量设置示例如下,export BERT_BASE_DIR=/opt/hanyaopeng/souhu/data/chinese_L-
  • albert-chinese-ner:基于预训练模型ALBERT的中文
    优质
    albert-chinese-ner项目采用Google的开源预训练模型ALBERT进行微调,专注于提升中文文本中的命名实体识别精度。此代码库为研究者和开发者提供了一个强大的工具,以促进自然语言处理任务的发展。 阿尔伯特·中国人前言这次的albert在某种程度上可能会与bert产生本质上的重叠,恰逢中文预训练模型发布,因此继续使用之前的数据进行NER方面的fine-tune。这里使用的是base版本,并将模型文件夹命名为albert_base_zh,然后加入项目中运行python albert_ner.py --task_name ner --do_train true --do_eval true --data_dir data --vocab_file ./albert_config/vocab.txt --bert_config_fi。