- IKAnalyzer - org.wltea.analyzer.lucene中的类
-
IK分词器,Lucene Analyzer接口实现
兼容Lucene 3.1以上版本
- IKAnalyzer() - 类 的构造器org.wltea.analyzer.lucene.IKAnalyzer
-
IK分词器Lucene 3.5 Analyzer接口实现类
默认细粒度切分算法
- IKAnalyzer(boolean) - 类 的构造器org.wltea.analyzer.lucene.IKAnalyzer
-
IK分词器Lucene Analyzer接口实现类
- IKAnalyzerDemo - org.wltea.analyzer.sample中的类
-
IKAnalyzer 示例
2012-3-2
以下是结合Lucene3.4 API的写法
- IKAnalyzerDemo() - 类 的构造器org.wltea.analyzer.sample.IKAnalyzerDemo
-
- IKSegmenter - org.wltea.analyzer.core中的类
-
IK分词器主类
- IKSegmenter(Reader, boolean) - 类 的构造器org.wltea.analyzer.core.IKSegmenter
-
IK分词器构造函数
- IKSegmenter(Reader, Configuration) - 类 的构造器org.wltea.analyzer.core.IKSegmenter
-
IK分词器构造函数
- IKTokenizer - org.wltea.analyzer.lucene中的类
-
IK分词器 Lucene Tokenizer适配器类
兼容Lucene 3.1以上版本
- IKTokenizer(Reader, boolean) - 类 的构造器org.wltea.analyzer.lucene.IKTokenizer
-
Lucene 3.5 Tokenizer适配器类构造函数
- IKTokenizerFactory - org.wltea.analyzer.solr中的类
-
IK中文分词
Solr分词器工厂实现
2012-3-6
- IKTokenizerFactory() - 类 的构造器org.wltea.analyzer.solr.IKTokenizerFactory
-
- incrementToken() - 类 中的方法org.wltea.analyzer.lucene.IKTokenizer
-
- init(Map<String, String>) - 类 中的方法org.wltea.analyzer.solr.IKTokenizerFactory
-
- initial(Configuration) - 类 中的静态方法org.wltea.analyzer.dic.Dictionary
-
词典初始化
由于IK Analyzer的词典采用Dictionary类的静态方法进行词典初始化
只有当Dictionary类被实际调用时,才会开始载入词典,
这将延长首次分词操作的时间
该方法提供了一个在应用加载阶段就初始化字典的手段
- isMatch() - 类 中的方法org.wltea.analyzer.dic.Hit
-
判断是否完全匹配
- isPrefix() - 类 中的方法org.wltea.analyzer.dic.Hit
-
判断是否是词的前缀
- isStopWord(char[], int, int) - 类 中的方法org.wltea.analyzer.dic.Dictionary
-
判断是否是停止词
- isUnmatch() - 类 中的方法org.wltea.analyzer.dic.Hit
-
判断是否是不匹配