大数据人|大数据第一社区

 找回密码
 注册会员

扫一扫,访问微社区

查看: 664|回复: 0
打印 上一主题 下一主题

HanLP-分类模块的分词器介绍

[复制链接]
  • TA的每日心情

    2018-9-28 11:05
  • 签到天数: 1 天

    [LV.1]初来乍到

    109

    主题

    109

    帖子

    570

    积分

    高级会员

    Rank: 4

    积分
    570
    跳转到指定楼层
    楼主
    发表于 2019-6-14 10:44:24 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式

    最近发现一个很勤快的大神在分享他的一些实操经验,看了一些他自己关于hanlp方面的文章,写的挺好的!转载过来分享给大家!以下为分享原文(无意义的内容已经做了删除)
    如下图所示,HanLP的分类模块中单独封装了适用分类的分词器,当然这些分词器都是对HanLP提供的分词器的封装。分类模块中提供的分词器都在tokenizer包中。包括:
    BigramTokenizer这是一个2gram分词器,也就是把连续的2字认为是一个词
    BlankTokenizer这是一个空白符分词器,以文本中的空白符作为词语间隔
    HanLPTokenizer这是一个实词分词器,也就是只保留实词,它是分类模块的默认分词器
    如果需要修改分类模块的分词器,需要在加载文本数据之前,设置分词器,示例代码如下:
    IDataSet trainingCorpus = new FileDataSet().                          // FileDataSet省内存,可加载大规模数据集
                setTokenizer(new HanLPTokenizer()).                               // 支持不同的ITokenizer,详见源码中的文档
                load(CORPUS_FOLDER, "UTF-8", 0.9);               // 前90%作为训练集
            IClassifier classifier = new NaiveBayesClassifier();
            classifier.train(trainingCorpus);
    还需要注意的是,这三种分词器其实都不太适合做情感分类的分词器,如果想用标准分词器作为情感分类的分词器,则用户需要自定义一个分词器类,该类需要实现ITokenizer接口并封装标准分词器。(如果直接调用setTokenizer方法传递下图HanLP分词器包中的分词器实例,则会报错)



    困啊,想睡觉的呢
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 注册会员

    本版积分规则

    关闭

    站长推荐上一条 /2 下一条


    id="mn_portal" >首页Portalid="mn_P18" onmouseover="navShow('P18')">应用id="mn_P15" onmouseover="navShow('P15')">技术id="mn_P37" onmouseover="showMenu({'ctrlid':this.id,'ctrlclass':'hover','duration':2})">前沿id="mn_P36" onmouseover="navShow('P36')">宝箱id="mn_P61" onmouseover="showMenu({'ctrlid':this.id,'ctrlclass':'hover','duration':2})">专栏id="mn_P65" >企业id="mn_Nd633" >导航 折叠导航 关注微信 关注微博 关注我们

    QQ|广告服务|关于我们|Archiver|手机版|小黑屋|大数据人 ( 鄂ICP备14012176号-2  

    GMT+8, 2024-5-3 12:19 , Processed in 0.272278 second(s), 32 queries .

    Powered by 小雄! X3.2

    © 2014-2020 bigdataer Inc.

    快速回复 返回顶部 返回列表