Advertisement

包含30万条书评的语料库。

  •  5星
  •     浏览量: 0
  •     大小:None
  •      文件类型:None


简介:
拥有三十万条书籍评论数据,这些评论涵盖了不同长度的表达,以及积极、消极和中立的评价类型,并基于中文语料库构建,为情感分析模型的训练提供了丰富的资源。

全部评论 (0)

还没有任何评论哟~
客服
客服
  • 论数据30论)
    优质
    本书籍评论数据库汇集了超过三十万条读者对各类书籍的评价与反馈,涵盖广泛的主题和体裁,为研究文学趋势、读者偏好及书评分析提供了宝贵的资源。 这个语料库包含30万条书籍评论,涵盖了各种长度的评论以及正面、负面和中性的评价。这些中文评论可以用于训练情感分析模型。
  • 京东商品获30价,
    优质
    该产品在京东商城广受消费者欢迎,已累计获得超过三十万条评论及评分,反映了用户对其质量与服务的高度认可。 一直在京东购买商品,好评如潮。东西质量不错,使用方便快捷。这次的商品一如既往地保持了原有的味道,物流也十分给力。但是对打包方式表示不满,用的是塑料袋而不是纸箱,导致部分零食包装盒有破损的情况出现。 此用户未及时评价时,默认给了好评。 三条装的产品很棒,口感极佳,并且到货速度很快。 产品整体来说还不错。 产品质量很高,性价比也很高!还会继续购买的!信赖京东这样的平台。
  • 中文分词词30
    优质
    本项目包含超过30万个词条的中文分词词库,旨在提升文本处理与自然语言理解系统的准确性和效率。 格式: 序号 单词 词频 词性 请参考相关标准:http://ictclas.org/ictclas_docs_003.html 和 http://hi.baidu.com/drkevinzhang/blog/category/ictclas 去掉链接后的内容如下: 格式: 序号 字 词频 词性 请参考相关标准。
  • 全中文电商,空格分词,60
    优质
    这是一套包含60万条记录的全中文电商评论数据集,采用空格进行词汇分割,为自然语言处理和机器学习研究提供了宝贵的资源。 电商评论中文语料,包含60万条分词数据。
  • 亚马逊论情感分析:基于3460研究
    优质
    本研究利用包含3460万条亚马逊用户评论的大型语料库,深入探讨了电商环境中消费者评论的情感倾向及其对产品销售的影响。通过先进的自然语言处理技术,我们解析和分类这些海量数据中的情感信息,为商家提供基于数据分析的产品改进策略建议,并帮助潜在买家做出更明智的购买决策。 概述 我们利用了Jure Leskovec在18年收集的数据集来构建一个情感字典,该字典包含97,436个唯一单词,并且每个单词都对应着零中心浮点情感得分。 过程 首先对数据进行了预处理以删除不必要的信息。我们的分析仅限于评论文本及其对应的星级评分。在完成预处理后,我们使用MapReduce技术来计算每颗星(从1到5)下各个词汇的出现频率。随后根据这些词频编写了一种情感评估算法来推算每个单词的情感得分。 结果 正面评价相关词汇及相应分数如下: - 好的:0.152603809091 - 伟大的:3.78021467713 - 惊人的:6.8840020218 - 精彩的:6.54080771437 - 完美的:5.78771983374 - 非同凡响:5.72747983897 - 最好的:6.05087919002 负面评价相关词汇及相应分数如下: - 坏的:-5
  • 5豆瓣数据集
    优质
    本数据集包含了来自豆瓣网站的五万余条电影评论,旨在为研究者提供一个全面且丰富的中文语料库,用于情感分析、主题建模等自然语言处理任务。 我收集了豆瓣5万条影评的原始数据集,欢迎大家下载并尊重我的劳动成果。如果有时间我会继续提供更多的数据集。对于从事机器学习、自然语言处理和深度学习的研究者来说,这个资源非常有用。数据格式为:电影名称##评论星级(1-5星)##评论内容。
  • 酒店数据集
    优质
    本数据集收录了超过两万条关于酒店的评论,旨在通过分析顾客反馈来评估和改善酒店服务质量。 适合数据分析初学者进行简单的文本分类训练和文本情感分析。
  • 100京东数据集
    优质
    本数据集汇集了超过百万条针对各类商品在京东平台上的用户评价,为研究消费者行为和市场趋势提供了宝贵资源。 数据共有100多万条,以下是数据的格式:产品编号、产品ID、评分、用户ID。
  • 12对话青云.csv
    优质
    12万条对话语料青云库.csv包含了丰富多样的对话数据集,适用于自然语言处理和机器学习的研究与开发。 该资源包含多类文件和对话题库,并收集了市面上多个语言包。如需下载,请注明个人使用且仅限非商业用途。
  • 中文分词词30目).txt
    优质
    本资源为中文分词词库文件,包含约30万个词条,适用于自然语言处理、机器学习等领域中进行文本分析和理解。 30万中文分词词库.txt