标签归档:中文分词器

用MeCab打造一套实用的中文分词系统

MeCab是一套日文分词(形态分析)和词性标注系统(Yet Another Pa … 继续阅读

发表在 中文信息处理, 中文分词, 自然语言处理 | 标签为 , , , , , , , , , , , , , , , , , , , , , | 32条评论

中文分词入门之字标注法全文文档

将“中文分词入门之字标注法”这个系列整理成了一个PDF文档放到微盘中了,感兴趣的 … 继续阅读

发表在 中文信息处理, 中文分词, 自然语言处理 | 标签为 , , , , , , , , , , , , , , | 10条评论

中文分词入门之字标注法4

上一节主要介绍的是利用最大熵工具包来做字标注中文分词,这一节我们直奔主题,借用条 … 继续阅读

发表在 中文分词, 条件随机场 | 标签为 , , , , , , , , , , , , , , , , , , | 41条评论

中文分词入门之字标注法3

最近要整理一下课程图谱里的中文课程,需要处理中文,首当其冲的便是中文分词的问题。 … 继续阅读

发表在 中文分词, 最大熵模型 | 标签为 , , , , , , , , , , , | 9条评论