|
||||||||||
| 上一个 下一个 | 框架 无框架 | |||||||||
| com.hankcs.hanlp 中 Term 的使用 |
|---|
| 返回变量类型为 Term 的类型的 com.hankcs.hanlp 中的方法 | |
|---|---|
static List<Term> |
HanLP.segment(String text)
分词 |
| com.hankcs.hanlp.corpus.occurrence 中 Term 的使用 |
|---|
| 类型变量类型为 Term 的 com.hankcs.hanlp.corpus.occurrence 中的方法参数 | |
|---|---|
void |
Occurrence.addAll(List<Term> resultList)
|
| com.hankcs.hanlp.dependency 中 Term 的使用 |
|---|
| 类型变量类型为 Term 的 com.hankcs.hanlp.dependency 中的方法参数 | |
|---|---|
static CoNLLSentence |
WordNatureDependencyParser.compute(List<Term> termList)
分析句子的依存句法 |
static CoNLLSentence |
MaxEntDependencyParser.compute(List<Term> termList)
分析句子的依存句法 |
static CoNLLSentence |
CRFDependencyParser.compute(List<Term> termList)
分析句子的依存句法 |
CoNLLSentence |
MinimumSpanningTreeParser.parse(List<Term> termList)
|
CoNLLSentence |
IDependencyParser.parse(List<Term> termList)
分析句子的依存句法 |
CoNLLSentence |
CRFDependencyParser.parse(List<Term> termList)
|
| com.hankcs.hanlp.dependency.common 中 Term 的使用 |
|---|
| 参数类型为 Term 的 com.hankcs.hanlp.dependency.common 中的构造方法 | |
|---|---|
Node(Term term,
int id)
|
|
| com.hankcs.hanlp.dependency.nnparser 中 Term 的使用 |
|---|
| 类型变量类型为 Term 的 com.hankcs.hanlp.dependency.nnparser 中的方法参数 | |
|---|---|
static CoNLLSentence |
NeuralNetworkDependencyParser.compute(List<Term> termList)
分析句子的依存句法 |
CoNLLSentence |
NeuralNetworkDependencyParser.parse(List<Term> termList)
|
| com.hankcs.hanlp.dependency.nnparser.util 中 Term 的使用 |
|---|
| 类型变量类型为 Term 的 com.hankcs.hanlp.dependency.nnparser.util 中的方法参数 | |
|---|---|
static List<String> |
PosTagUtil.to863(List<Term> termList)
转为863标注集 863词性标注集,其各个词性含义如下表: Tag Description Example Tag Description Example a adjective 美丽 ni organization name 保险公司 b other noun-modifier 大型, 西式 nl location noun 城郊 c conjunction 和, 虽然 ns geographical name 北京 d adverb 很 nt temporal noun 近日, 明代 e exclamation 哎 nz other proper noun 诺贝尔奖 g morpheme 茨, 甥 o onomatopoeia 哗啦 h prefix 阿, 伪 p preposition 在, 把 i idiom 百花齐放 q quantity 个 j abbreviation 公检法 r pronoun 我们 k suffix 界, 率 u auxiliary 的, 地 m number 一, 第一 v verb 跑, 学习 n general noun 苹果 wp punctuation ,。! |
| com.hankcs.hanlp.dictionary 中 Term 的使用 |
|---|
| 类型变量类型为 Term 的 com.hankcs.hanlp.dictionary 中的方法参数 | |
|---|---|
static List<Long[]> |
CoreSynonymDictionaryEx.convert(List<Term> sentence,
boolean withUndefinedItem)
将分词结果转换为同义词列表 |
static List<CommonSynonymDictionary.SynonymItem> |
CoreSynonymDictionary.convert(List<Term> sentence,
boolean withUndefinedItem)
将分词结果转换为同义词列表 |
| com.hankcs.hanlp.dictionary.stopword 中 Term 的使用 |
|---|
| 参数类型为 Term 的 com.hankcs.hanlp.dictionary.stopword 中的方法 | |
|---|---|
boolean |
StopWordDictionary.shouldInclude(Term term)
|
boolean |
Filter.shouldInclude(Term term)
是否应当将这个term纳入计算 |
static boolean |
CoreStopWordDictionary.shouldInclude(Term term)
是否应当将这个term纳入计算 |
static boolean |
CoreStopWordDictionary.shouldRemove(Term term)
是否应当去掉这个词 |
| 类型变量类型为 Term 的 com.hankcs.hanlp.dictionary.stopword 中的方法参数 | |
|---|---|
static void |
CoreStopWordDictionary.apply(List<Term> termList)
对分词结果应用过滤 |
| com.hankcs.hanlp.seg 中 Term 的使用 |
|---|
| 返回变量类型为 Term 的类型的 com.hankcs.hanlp.seg 中的方法 | |
|---|---|
protected static List<Term> |
WordBasedGenerativeModelSegment.convert(List<Vertex> vertexList)
将一条路径转为最终结果 |
protected static List<Term> |
WordBasedGenerativeModelSegment.convert(List<Vertex> vertexList,
boolean offsetEnabled)
将一条路径转为最终结果 |
protected static List<Term> |
WordBasedGenerativeModelSegment.decorateResultForIndexMode(List<Vertex> vertexList,
WordNet wordNetAll)
为了索引模式修饰结果 |
List<Term> |
Segment.seg(char[] text)
分词 |
List<Term> |
Segment.seg(String text)
分词 此方法是线程安全的 |
List<List<Term>> |
Segment.seg2sentence(String text)
分词断句 输出句子形式 |
protected abstract List<Term> |
Segment.segSentence(char[] sentence)
给一个句子分词 |
| com.hankcs.hanlp.seg.common.wrapper 中 Term 的使用 |
|---|
| 返回 Term 的 com.hankcs.hanlp.seg.common.wrapper 中的方法 | |
|---|---|
Term |
SegmentWrapper.next()
|
| com.hankcs.hanlp.seg.CRF 中 Term 的使用 |
|---|
| 返回变量类型为 Term 的类型的 com.hankcs.hanlp.seg.CRF 中的方法 | |
|---|---|
protected List<Term> |
CRFSegment.segSentence(char[] sentence)
|
protected static List<Term> |
CRFSegment.toTermList(List<Vertex> vertexList,
boolean offsetEnabled)
将一条路径转为最终结果 |
| com.hankcs.hanlp.seg.Dijkstra 中 Term 的使用 |
|---|
| 返回变量类型为 Term 的类型的 com.hankcs.hanlp.seg.Dijkstra 中的方法 | |
|---|---|
List<Term> |
DijkstraSegment.segSentence(char[] sentence)
|
| com.hankcs.hanlp.seg.HMM 中 Term 的使用 |
|---|
| 返回变量类型为 Term 的类型的 com.hankcs.hanlp.seg.HMM 中的方法 | |
|---|---|
protected List<Term> |
HMMSegment.segSentence(char[] sentence)
|
| com.hankcs.hanlp.seg.NShort 中 Term 的使用 |
|---|
| 返回变量类型为 Term 的类型的 com.hankcs.hanlp.seg.NShort 中的方法 | |
|---|---|
static List<Term> |
NShortSegment.parse(String text)
一句话分词 |
List<Term> |
NShortSegment.segSentence(char[] sentence)
|
| com.hankcs.hanlp.seg.Other 中 Term 的使用 |
|---|
| 返回变量类型为 Term 的类型的 com.hankcs.hanlp.seg.Other 中的方法 | |
|---|---|
protected List<Term> |
DoubleArrayTrieSegment.segSentence(char[] sentence)
|
protected List<Term> |
AhoCorasickDoubleArrayTrieSegment.segSentence(char[] sentence)
|
| com.hankcs.hanlp.seg.Viterbi 中 Term 的使用 |
|---|
| 返回变量类型为 Term 的类型的 com.hankcs.hanlp.seg.Viterbi 中的方法 | |
|---|---|
protected List<Term> |
ViterbiSegment.segSentence(char[] sentence)
|
| com.hankcs.hanlp.summary 中 Term 的使用 |
|---|
| 参数类型为 Term 的 com.hankcs.hanlp.summary 中的方法 | |
|---|---|
boolean |
KeywordExtractor.shouldInclude(Term term)
是否应当将这个term纳入计算,词性属于名词、动词、副词、形容词 |
| 类型变量类型为 Term 的 com.hankcs.hanlp.summary 中的方法参数 | |
|---|---|
Map<String,Float> |
TextRankKeyword.getRank(List<Term> termList)
使用已经分好的词来计算rank |
| com.hankcs.hanlp.tokenizer 中 Term 的使用 |
|---|
| 返回变量类型为 Term 的类型的 com.hankcs.hanlp.tokenizer 中的方法 | |
|---|---|
static List<List<Term>> |
TraditionalChineseTokenizer.seg2sentence(String text)
切分为句子形式 |
static List<List<Term>> |
StandardTokenizer.seg2sentence(String text)
切分为句子形式 |
static List<List<Term>> |
SpeedTokenizer.seg2sentence(String text)
切分为句子形式 |
static List<List<Term>> |
NotionalTokenizer.seg2sentence(String text)
切分为句子形式 |
static List<List<Term>> |
NLPTokenizer.seg2sentence(String text)
切分为句子形式 |
static List<List<Term>> |
IndexTokenizer.seg2sentence(String text)
切分为句子形式 |
static List<List<Term>> |
BasicTokenizer.seg2sentence(String text)
切分为句子形式 |
static List<List<Term>> |
NotionalTokenizer.seg2sentence(String text,
Filter... filterArrayChain)
切分为句子形式 |
static List<Term> |
TraditionalChineseTokenizer.segment(char[] text)
分词 |
static List<Term> |
StandardTokenizer.segment(char[] text)
分词 |
static List<Term> |
SpeedTokenizer.segment(char[] text)
分词 |
static List<Term> |
NotionalTokenizer.segment(char[] text)
分词 |
static List<Term> |
NLPTokenizer.segment(char[] text)
分词 |
static List<Term> |
IndexTokenizer.segment(char[] text)
分词 |
static List<Term> |
BasicTokenizer.segment(char[] text)
分词 |
static List<Term> |
TraditionalChineseTokenizer.segment(String text)
|
static List<Term> |
StandardTokenizer.segment(String text)
分词 |
static List<Term> |
SpeedTokenizer.segment(String text)
|
static List<Term> |
NotionalTokenizer.segment(String text)
|
static List<Term> |
NLPTokenizer.segment(String text)
|
static List<Term> |
IndexTokenizer.segment(String text)
|
static List<Term> |
BasicTokenizer.segment(String text)
分词 |
| com.hankcs.hanlp.utility 中 Term 的使用 |
|---|
| 参数类型为 Term 的 com.hankcs.hanlp.utility 中的方法 | |
|---|---|
static CoreDictionary.Attribute |
Lexicon.getAttribute(Term term)
从HanLP的词库中提取某个单词的属性(包括核心词典和用户词典) |
| 类型变量类型为 Term 的 com.hankcs.hanlp.utility 中的方法参数 | |
|---|---|
static boolean |
SentencesUtil.hasNature(List<Term> sentence,
Nature nature)
句子中是否含有词性 |
|
||||||||||
| 上一个 下一个 | 框架 无框架 | |||||||||