5008798 detachina 1659674630
79
快速中文分词分析word segmentation
Java
接近2年前
274
结巴中文分词做最好的Python分词组件
Python
接近11年前
0
813258 liuyuantao 1636545716
0
MMSeg4j最新版1.9.1不支持Lucene5.0。修改MMSeg4j的源码支持lucene5.x
Java
接近7年前
4
新词发现、分词、情感倾向性分析
22
基于ik-analyzer分词器,在其基础上实现对不同版本的lucene兼容,ik-analyzer项目主页地址为:https://code.google.com/archive/p/ik-analyzer/
Java
4年多前
4859 wolferhua 1578914289
5
PHPAnalysis分词程序使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。 由于PHPAnalysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内容越多,反而会觉得速度越快,这是正常现象,PHPAnalysis的词库是用一种类似哈希(Hash)的数据结构进行存储的,因此对于比较短的字符串分词,只需要占极小的资源,比那种一次性载入所有词条的实际性要高得多,并且词库容量大小不会影响分词执行的速度。
145212 gitclebeg 1620614744
5
自然语言分词模块,为中文语料批量分词,会继承各种分词工具
Java
9年前
12 mirrors 1578989292
0
mmseg4j core 使用 Chih-Hao Tsai 的 MMSeg 算法实现的中文分词器。
Java
3年多前
728489 yuanyuhu 1578931577
1
调用了中科院的分词程序,打算做一个分词的工具jar
Java
7年多前
27
ansj分词.ict的真正java实现.分词效果速度都超过开源版的ict. 中文分词,人名识别,词性标注,用户自定义词典
416 superbigfu 1626062575
1
基于IK-Analyzer-2012FF,为了solr6.0.1改的
Java
接近8年前
0
使用office进行分词,可对中文泰文及其他文字进行分词。
C#
8年多前
12 mirrors 1578989292
37
pkuseg-python:一个高准确度的中文分词工具包 pkuseg-python 简单易用,支持多领域分词,在不同领域的数据上都大幅提高了分词的准确率
Python
3年多前

搜索帮助