类 com.hankcs.hanlp.seg.common.Term
的使用

使用 Term 的软件包
com.hankcs.hanlp   
com.hankcs.hanlp.corpus.occurrence   
com.hankcs.hanlp.dependency   
com.hankcs.hanlp.dependency.common   
com.hankcs.hanlp.dependency.nnparser   
com.hankcs.hanlp.dependency.nnparser.util   
com.hankcs.hanlp.dictionary   
com.hankcs.hanlp.dictionary.stopword   
com.hankcs.hanlp.seg   
com.hankcs.hanlp.seg.common.wrapper   
com.hankcs.hanlp.seg.CRF   
com.hankcs.hanlp.seg.Dijkstra   
com.hankcs.hanlp.seg.HMM   
com.hankcs.hanlp.seg.NShort   
com.hankcs.hanlp.seg.Other   
com.hankcs.hanlp.seg.Viterbi   
com.hankcs.hanlp.summary   
com.hankcs.hanlp.tokenizer   
com.hankcs.hanlp.utility   
 

com.hankcs.hanlpTerm 的使用
 

返回变量类型为 Term 的类型的 com.hankcs.hanlp 中的方法
static List<Term> HanLP.segment(String text)
          分词
 

com.hankcs.hanlp.corpus.occurrenceTerm 的使用
 

类型变量类型为 Termcom.hankcs.hanlp.corpus.occurrence 中的方法参数
 void Occurrence.addAll(List<Term> resultList)
           
 

com.hankcs.hanlp.dependencyTerm 的使用
 

类型变量类型为 Termcom.hankcs.hanlp.dependency 中的方法参数
static CoNLLSentence WordNatureDependencyParser.compute(List<Term> termList)
          分析句子的依存句法
static CoNLLSentence MaxEntDependencyParser.compute(List<Term> termList)
          分析句子的依存句法
static CoNLLSentence CRFDependencyParser.compute(List<Term> termList)
          分析句子的依存句法
 CoNLLSentence MinimumSpanningTreeParser.parse(List<Term> termList)
           
 CoNLLSentence IDependencyParser.parse(List<Term> termList)
          分析句子的依存句法
 CoNLLSentence CRFDependencyParser.parse(List<Term> termList)
           
 

com.hankcs.hanlp.dependency.commonTerm 的使用
 

参数类型为 Termcom.hankcs.hanlp.dependency.common 中的构造方法
Node(Term term, int id)
           
 

com.hankcs.hanlp.dependency.nnparserTerm 的使用
 

类型变量类型为 Termcom.hankcs.hanlp.dependency.nnparser 中的方法参数
static CoNLLSentence NeuralNetworkDependencyParser.compute(List<Term> termList)
          分析句子的依存句法
 CoNLLSentence NeuralNetworkDependencyParser.parse(List<Term> termList)
           
 

com.hankcs.hanlp.dependency.nnparser.utilTerm 的使用
 

类型变量类型为 Termcom.hankcs.hanlp.dependency.nnparser.util 中的方法参数
static List<String> PosTagUtil.to863(List<Term> termList)
          转为863标注集
863词性标注集,其各个词性含义如下表: Tag Description Example Tag Description Example a adjective 美丽 ni organization name 保险公司 b other noun-modifier 大型, 西式 nl location noun 城郊 c conjunction 和, 虽然 ns geographical name 北京 d adverb 很 nt temporal noun 近日, 明代 e exclamation 哎 nz other proper noun 诺贝尔奖 g morpheme 茨, 甥 o onomatopoeia 哗啦 h prefix 阿, 伪 p preposition 在, 把 i idiom 百花齐放 q quantity 个 j abbreviation 公检法 r pronoun 我们 k suffix 界, 率 u auxiliary 的, 地 m number 一, 第一 v verb 跑, 学习 n general noun 苹果 wp punctuation ,。!
 

com.hankcs.hanlp.dictionaryTerm 的使用
 

类型变量类型为 Termcom.hankcs.hanlp.dictionary 中的方法参数
static List<Long[]> CoreSynonymDictionaryEx.convert(List<Term> sentence, boolean withUndefinedItem)
          将分词结果转换为同义词列表
static List<CommonSynonymDictionary.SynonymItem> CoreSynonymDictionary.convert(List<Term> sentence, boolean withUndefinedItem)
          将分词结果转换为同义词列表
 

com.hankcs.hanlp.dictionary.stopwordTerm 的使用
 

参数类型为 Termcom.hankcs.hanlp.dictionary.stopword 中的方法
 boolean StopWordDictionary.shouldInclude(Term term)
           
 boolean Filter.shouldInclude(Term term)
          是否应当将这个term纳入计算
static boolean CoreStopWordDictionary.shouldInclude(Term term)
          是否应当将这个term纳入计算
static boolean CoreStopWordDictionary.shouldRemove(Term term)
          是否应当去掉这个词
 

类型变量类型为 Termcom.hankcs.hanlp.dictionary.stopword 中的方法参数
static void CoreStopWordDictionary.apply(List<Term> termList)
          对分词结果应用过滤
 

com.hankcs.hanlp.segTerm 的使用
 

返回变量类型为 Term 的类型的 com.hankcs.hanlp.seg 中的方法
protected static List<Term> WordBasedGenerativeModelSegment.convert(List<Vertex> vertexList)
          将一条路径转为最终结果
protected static List<Term> WordBasedGenerativeModelSegment.convert(List<Vertex> vertexList, boolean offsetEnabled)
          将一条路径转为最终结果
protected static List<Term> WordBasedGenerativeModelSegment.decorateResultForIndexMode(List<Vertex> vertexList, WordNet wordNetAll)
          为了索引模式修饰结果
 List<Term> Segment.seg(char[] text)
          分词
 List<Term> Segment.seg(String text)
          分词
此方法是线程安全的
 List<List<Term>> Segment.seg2sentence(String text)
          分词断句 输出句子形式
protected abstract  List<Term> Segment.segSentence(char[] sentence)
          给一个句子分词
 

com.hankcs.hanlp.seg.common.wrapperTerm 的使用
 

返回 Termcom.hankcs.hanlp.seg.common.wrapper 中的方法
 Term SegmentWrapper.next()
           
 

com.hankcs.hanlp.seg.CRFTerm 的使用
 

返回变量类型为 Term 的类型的 com.hankcs.hanlp.seg.CRF 中的方法
protected  List<Term> CRFSegment.segSentence(char[] sentence)
           
protected static List<Term> CRFSegment.toTermList(List<Vertex> vertexList, boolean offsetEnabled)
          将一条路径转为最终结果
 

com.hankcs.hanlp.seg.DijkstraTerm 的使用
 

返回变量类型为 Term 的类型的 com.hankcs.hanlp.seg.Dijkstra 中的方法
 List<Term> DijkstraSegment.segSentence(char[] sentence)
           
 

com.hankcs.hanlp.seg.HMMTerm 的使用
 

返回变量类型为 Term 的类型的 com.hankcs.hanlp.seg.HMM 中的方法
protected  List<Term> HMMSegment.segSentence(char[] sentence)
           
 

com.hankcs.hanlp.seg.NShortTerm 的使用
 

返回变量类型为 Term 的类型的 com.hankcs.hanlp.seg.NShort 中的方法
static List<Term> NShortSegment.parse(String text)
          一句话分词
 List<Term> NShortSegment.segSentence(char[] sentence)
           
 

com.hankcs.hanlp.seg.OtherTerm 的使用
 

返回变量类型为 Term 的类型的 com.hankcs.hanlp.seg.Other 中的方法
protected  List<Term> DoubleArrayTrieSegment.segSentence(char[] sentence)
           
protected  List<Term> AhoCorasickDoubleArrayTrieSegment.segSentence(char[] sentence)
           
 

com.hankcs.hanlp.seg.ViterbiTerm 的使用
 

返回变量类型为 Term 的类型的 com.hankcs.hanlp.seg.Viterbi 中的方法
protected  List<Term> ViterbiSegment.segSentence(char[] sentence)
           
 

com.hankcs.hanlp.summaryTerm 的使用
 

参数类型为 Termcom.hankcs.hanlp.summary 中的方法
 boolean KeywordExtractor.shouldInclude(Term term)
          是否应当将这个term纳入计算,词性属于名词、动词、副词、形容词
 

类型变量类型为 Termcom.hankcs.hanlp.summary 中的方法参数
 Map<String,Float> TextRankKeyword.getRank(List<Term> termList)
          使用已经分好的词来计算rank
 

com.hankcs.hanlp.tokenizerTerm 的使用
 

返回变量类型为 Term 的类型的 com.hankcs.hanlp.tokenizer 中的方法
static List<List<Term>> TraditionalChineseTokenizer.seg2sentence(String text)
          切分为句子形式
static List<List<Term>> StandardTokenizer.seg2sentence(String text)
          切分为句子形式
static List<List<Term>> SpeedTokenizer.seg2sentence(String text)
          切分为句子形式
static List<List<Term>> NotionalTokenizer.seg2sentence(String text)
          切分为句子形式
static List<List<Term>> NLPTokenizer.seg2sentence(String text)
          切分为句子形式
static List<List<Term>> IndexTokenizer.seg2sentence(String text)
          切分为句子形式
static List<List<Term>> BasicTokenizer.seg2sentence(String text)
          切分为句子形式
static List<List<Term>> NotionalTokenizer.seg2sentence(String text, Filter... filterArrayChain)
          切分为句子形式
static List<Term> TraditionalChineseTokenizer.segment(char[] text)
          分词
static List<Term> StandardTokenizer.segment(char[] text)
          分词
static List<Term> SpeedTokenizer.segment(char[] text)
          分词
static List<Term> NotionalTokenizer.segment(char[] text)
          分词
static List<Term> NLPTokenizer.segment(char[] text)
          分词
static List<Term> IndexTokenizer.segment(char[] text)
          分词
static List<Term> BasicTokenizer.segment(char[] text)
          分词
static List<Term> TraditionalChineseTokenizer.segment(String text)
           
static List<Term> StandardTokenizer.segment(String text)
          分词
static List<Term> SpeedTokenizer.segment(String text)
           
static List<Term> NotionalTokenizer.segment(String text)
           
static List<Term> NLPTokenizer.segment(String text)
           
static List<Term> IndexTokenizer.segment(String text)
           
static List<Term> BasicTokenizer.segment(String text)
          分词
 

com.hankcs.hanlp.utilityTerm 的使用
 

参数类型为 Termcom.hankcs.hanlp.utility 中的方法
static CoreDictionary.Attribute Lexicon.getAttribute(Term term)
          从HanLP的词库中提取某个单词的属性(包括核心词典和用户词典)
 

类型变量类型为 Termcom.hankcs.hanlp.utility 中的方法参数
static boolean SentencesUtil.hasNature(List<Term> sentence, Nature nature)
          句子中是否含有词性
 



Copyright © 2014–2015 鐮佸啘鍦�/a>. All rights reserved.