forked from huichen/sego
-
Notifications
You must be signed in to change notification settings - Fork 0
/
token.go
73 lines (62 loc) · 1.95 KB
/
token.go
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
package sego
// 字串类型,可以用来表达
// 1. 一个字元,比如"中"又如"国", 英文的一个字元是一个词
// 2. 一个分词,比如"中国"又如"人口"
// 3. 一段文字,比如"中国有十三亿人口"
type Text []byte
// 一个分词
type Token struct {
// 分词的字串,这实际上是个字元数组
text []Text
// 分词在语料库中的词频
frequency int
// log2(总词频/该分词词频),这相当于log2(1/p(分词)),用作动态规划中
// 该分词的路径长度。求解prod(p(分词))的最大值相当于求解
// sum(distance(分词))的最小值,这就是“最短路径”的来历。
distance float32
// 词性标注
pos string
// 该分词文本的进一步分词划分,见Segments函数注释。
segments []*Segment
}
// 返回分词文本
func (token *Token) Text() string {
return textSliceToString(token.text)
}
// 返回分词在语料库中的词频
func (token *Token) Frequency() int {
return token.frequency
}
// 返回分词词性标注
func (token *Token) Pos() string {
return token.pos
}
// 该分词文本的进一步分词划分,比如"中华人民共和国中央人民政府"这个分词
// 有两个子分词"中华人民共和国"和"中央人民政府"。子分词也可以进一步有子分词
// 形成一个树结构,遍历这个树就可以得到该分词的所有细致分词划分,这主要
// 用于搜索引擎对一段文本进行全文搜索。
func (token *Token) Segments() []*Segment {
return token.segments
}
func (token *Token) TextEquals(string string) bool {
tokenLen := 0
for _, t := range token.text {
tokenLen += len(t)
}
if tokenLen != len(string) {
return false
}
bytStr := []byte(string)
index := 0
for i := 0; i < len(token.text); i++ {
textArray := []byte(token.text[i])
for j := 0; j < len(textArray); j++ {
if textArray[j] != bytStr[index] {
index = index + 1
return false
}
index = index + 1
}
}
return true
}