设有两篇文章12

文章1的内容为:Tom lives in Guangzhou,I live in Guangzhou too.

文章2的内容为:He once lived in Shanghai.

      

首先我们要取得这两篇文章的关键词:

a.我们现在有的是文章内容,即一个字符串,我们先要找出字符串中的所有单词,即分词。英文单词由于用空格分隔。中文单词间是连在一起的需要特殊的分词处理(一元分词,二元分词,词库专业分词)

b.文章中的“inonce too”等词没有什么实际意义,中文中的“的”“是”等字通常也无具体含义,这些不代表概念的词可以过滤掉

c.用户通常希望查“He”时能把含“he”,“HE”的文章也找出来,所以所有单词需要统一大小写。

d.用户通常希望查“live”时能把含“lives”,“lived”的文章也找出来,所以需要把“lives”,“lived”还原成“live//专门处理

e.文章中的标点符号通常不表示某种概念,也可以过滤掉

//以上在分词解析处理时处理

 

经过上面处理后的关键字:

文章1[tom] [live] [guangzhou] [i] [live] [guangzhou]

文章2[he] [live] [shanghai]

 

2)以建立倒排索引。上面的对应关系是:“文章号”对“文章中所有关键词”。倒排索引就是把上面的顺序变成:“关键词”对“拥有该关键词的所有文章号”。文章12经过倒排后变成

关键词   文章号

guangzhou 1

he         2

i           1

live       1,2

shanghai   2

tom         1

 

我们还需要知道两种位置:

a)       字符位置,即记录该词是文章中第几个字符(优点是关键词亮显时定位快);

b)      关键词位置,即记录该词是文章中第几个关键词(优点是节约索引空间、词组(phase)查询快)

 

加上“出现频率”和“出现位置”信息后,我们的索引结构变为:

关键词   文章号[出现频率]   出现位置

guangzhou 1[2]               36

he       2[1]               1

i         1[1]               4

live      1[2],2[1]           252

shanghai 2[1]               3

tom      1[1]               1

 

live这行为例我们说明一下该结构:live在文章1中出现了2次,文章2中出现了一次,它的出现位置为“2,5,2”这表示什么呢?我们需要结合文章号和出现频率来分析,文章1中出现了2次,那么“2,5”就表示live在文章1中出现的两个位置,文章2中出现了一次,剩下的“2”就表示live是文章2中第2个关键字。

 

这就是索引结构中最核心的部分。我们注意到关键字是按字符顺序排列的,可以用二元搜索算法快速定位关键词。

 

将上面三列分别作为词典文件(Term Dictionary)、频率文件(frequencies)、位置文件(positions)保存。其中词典文件不仅保存有每个关键词,还保留了指向频率文件和位置文件的指针,通过指针可以找到该关键字的频率信息和位置信息。

 

关于:field的概念,用于表达信息所在位置(如标题中,文章中,url中),在建索引中,该field信息也记录在词典文件中,每个关键词都有一个field信息(因为每个关键字一定属于一个或多个field)

 

为了减小索引文件的大小使用了压缩技术。首先,对词典文件中的关键词进行了压缩,关键词压缩为<前缀长度,后缀>,例如:当前词为“阿拉伯语”,上一个词为“阿拉伯”,那么“阿拉伯语”压缩为<3,语>。其次大量用到的是对数字的压缩,数字只保存与上一个值的差值(这样可以减小数字的长度,进而减少保存该数字需要的字节数)。例如当前文章号是16389(不压缩要用3个字节保存),上一文章号是16382,压缩后保存7(只用一个字节)。

 

下面我们可以通过对该索引的查询来解释一下为什么要建立索引。

假设要查询单词 live”,先对词典二元查找、找到该词,通过指向频率文件的指针读出所有文章号,然后返回结果。词典通常非常小,因而,整个过程的时间是毫秒级的。

而用普通的顺序匹配算法,不建索引,而是对所有文章的内容进行字符串匹配,这个过程将会相当缓慢,当文章数目很大时,时间往往是无法忍受的。