极客时间已完结课程限时免费阅读

031 | 经典搜索核心算法:TF-IDF及其变种

031 | 经典搜索核心算法:TF-IDF及其变种-极客时间

031 | 经典搜索核心算法:TF-IDF及其变种

讲述:初明明

时长11:19大小5.18M

从本周开始我们进入人工智能核心技术模块,本周我会集中讲解经典的搜索核心算法,今天先来介绍 TF-IDF 算法。
在信息检索(Information Retrieval)、文本挖掘(Text Mining)以及自然语言处理(Natural Language Processing)领域,TF-IDF 算法都可以说是鼎鼎有名。虽然在这些领域中,目前也出现了不少以深度学习为基础的新的文本表达和算分(Weighting)方法,但是 TF-IDF 作为一个最基础的方法,依然在很多应用中发挥着不可替代的作用。
了解和掌握 TF-IDF 算法对初学者大有裨益,能够帮助初学者更快地理解其它更加深入、复杂的文本挖掘算法和模型。今天我就来谈谈 TF-IDF 的历史、算法本身的细节以及基于 TF-IDF 的几个变种算法。

TF-IDF 的历史

把查询关键字(Query)和文档(Document)都转换成“向量”,并且尝试用线性代数等数学工具来解决信息检索问题,这样的努力至少可以追溯到 20 世纪 70 年代。
1971 年,美国康奈尔大学教授杰拉德·索尔顿(Gerard Salton)发表了《SMART 检索系统:自动文档处理实验》(The SMART Retrieval System—Experiments in Automatic Document Processing)一文,文中首次提到了把查询关键字和文档都转换成“向量”,并且给这些向量中的元素赋予不同的值。这篇论文中描述的 SMART 检索系统,特别是其中对 TF-IDF 及其变种的描述成了后续很多工业级系统的重要参考。
1972 年,英国的计算机科学家卡伦·琼斯(Karen Spärck Jones)在《从统计的观点看词的特殊性及其在文档检索中的应用》(A Statistical Interpretation of Term Specificity and Its Application in Retrieval) 一文中第一次详细地阐述了 IDF 的应用。其后卡伦又在《检索目录中的词赋值权重》(Index Term Weighting)一文中对 TF 和 IDF 的结合进行了论述。可以说,卡伦是第一位从理论上对 TF-IDF 进行完整论证的计算机科学家,因此后世也有很多人把 TF-IDF 的发明归结于卡伦。
杰拉德本人被认为是“信息检索之父”。他 1927 年出生于德国的纽伦堡,并与 1950 年和 1952 年先后从纽约的布鲁克林学院获得数学学士和硕士学位,1958 年从哈佛大学获得应用数学博士学位,之后来到康奈尔大学参与组建计算机系。为了致敬杰拉德本人对现代信息检索技术的卓越贡献,现在,美国计算机协会 ACM(Association of Computing Machinery)每三年颁发一次“杰拉德·索尔顿奖”(Gerard Salton Award),用于表彰对信息检索技术有突出贡献的研究人员。卡伦·琼斯在 1988 年获得了第二届“杰拉德·索尔顿奖”的殊荣。

TF-IDF 算法详解

要理解 TF-IDF 算法,第一个步骤是理解 TF-IDF 的应用背景。TF-IDF 来源于一个最经典、也是最古老的信息检索模型,即“向量空间模型”(Vector Space Model)。
简单来说,向量空间模型就是希望把查询关键字和文档都表达成向量,然后利用向量之间的运算来进一步表达向量间的关系。比如,一个比较常用的运算就是计算查询关键字所对应的向量和文档所对应的向量之间的“相关度”。
因为有了向量的表达,相关度往往可以用向量在某种意义上的“相似度”来进行近似,比如余弦相似性(Cosine Similarity)或者是点积(Dot Product)。这样,相关度就可以用一个值来进行表达。不管是余弦相似度还是点积都能够从线性代数或者几何的角度来解释计算的合理性。
在最基本的向量空间模型的表达中,查询关键字或是文档的向量都有 V 维度。这里的 V 是整个词汇表(Vocabulary)的总长度。比如,我们如果有 1 万个常用的英文单词,那么这个 V 的取值就是 1 万,而查询关键字和每个文档的向量都是一个 1 万维的向量。 对于这个向量中的每一个维度,都表示英文中的一个单词,没有重复。
你可以看到,在这样的情况下,如果当前的词出现在这个向量所对应的文档或者关键字里,就用 1 来表达;如果这个词没出现,就用 0 来表达。这就是给每个维度赋值(Weighting)的最简单的方法。
TF-IDF 就是在向量空间模型的假设下的一种更加复杂的赋值方式。TF-IDF 最基础的模式,顾名思义,就是 TF 和 IDF 的乘积
TF 其实是“单词频率”(Term Frequency)的简称。意思就是说,我们计算一个查询关键字中某一个单词在目标文档中出现的次数。举例说来,如果我们要查询“Car Insurance”,那么对于每一个文档,我们都计算“Car”这个单词在其中出现了多少次,“Insurance”这个单词在其中出现了多少次。这个就是 TF 的计算方法。
TF 背后的隐含的假设是,查询关键字中的单词应该相对于其他单词更加重要,而文档的重要程度,也就是相关度,与单词在文档中出现的次数成正比。比如,“Car”这个单词在文档 A 里出现了 5 次,而在文档 B 里出现了 20 次,那么 TF 计算就认为文档 B 可能更相关。
然而,信息检索工作者很快就发现,仅有 TF 不能比较完整地描述文档的相关度。因为语言的因素,有一些单词可能会比较自然地在很多文档中反复出现,比如英语中的“The”、“An”、“But”等等。这些词大多起到了链接语句的作用,是保持语言连贯不可或缺的部分。然而,如果我们要搜索“How to Build A Car”这个关键词,其中的“How”、“To”以及“A”都极可能在绝大多数的文档中出现,这个时候 TF 就无法帮助我们区分文档的相关度了。
IDF,也就是“逆文档频率”(Inverse Document Frequency),就在这样的情况下应运而生。这里面的思路其实很简单,那就是我们需要去“惩罚”(Penalize)那些出现在太多文档中的单词。
也就是说,真正携带“相关”信息的单词仅仅出现在相对比较少,有时候可能是极少数的文档里。这个信息,很容易用“文档频率”来计算,也就是,有多少文档涵盖了这个单词。很明显,如果有太多文档都涵盖了某个单词,这个单词也就越不重要,或者说是这个单词就越没有信息量。因此,我们需要对 TF 的值进行修正,而 IDF 的想法是用 DF 的倒数来进行修正。倒数的应用正好表达了这样的思想,DF 值越大越不重要。
在了解了 TF 和 IDF 的基本计算方法后,我们就可以用这两个概念的乘积来表达某个查询单词在一个目标文档中的重要性了。值得一提的是,虽然我们在介绍 TF-IDF 这个概念的时候,并没有提及怎么把查询关键字和文档分别表达成向量,其实 TF-IDF 算法隐含了这个步骤。
具体来说,对于查询关键字,向量的长度是 V,也就是我们刚才说过的词汇表的大小。然后其中关键字的单词出现过的维度是 1,其他维度是 0。对于目标文档而言,关键词出现过的维度是 TF-IDF 的数值,而其他维度是 0。在这样的表达下,如果我们对两个文档进行“点积”操作,则得到的相关度打分(Scoring)就是 TF-IDF 作为相关度的打分结果。

TF-IDF 算法变种

很明显,经典的 TF-IDF 算法有很多因素没有考虑。在过去的很长一段时间里,研究人员和工程师开发出了很多种 TF-IDF 的变种。这里我介绍几个经典的变种。
首先,很多人注意到 TF 的值在原始的定义中没有任何上限。虽然我们一般认为一个文档包含查询关键词多次相对来说表达了某种相关度,但这样的关系很难说是线性的。拿我们刚才举过的关于“Car Insurance”的例子来说,文档 A 可能包含“Car”这个词 100 次,而文档 B 可能包含 200 次,是不是说文档 B 的相关度就是文档 A 的 2 倍呢?其实,很多人意识到,超过了某个阈值之后,这个 TF 也就没那么有区分度了。
用 Log,也就是对数函数,对 TF 进行变换,就是一个不让 TF 线性增长的技巧。具体来说,人们常常用 1+Log(TF) 这个值来代替原来的 TF 取值。在这样新的计算下,假设“Car”出现一次,新的值是 1,出现 100 次,新的值是 5.6,而出现 200 次,新的值是 6.3。很明显,这样的计算保持了一个平衡,既有区分度,但也不至于完全线性增长。
另外一个关于 TF 的观察则是,经典的计算并没有考虑“长文档”和“短文档”的区别。一个文档 A 有 3,000 个单词,一个文档 B 有 250 个单词,很明显,即便“Car”在这两个文档中都同样出现过 20 次,也不能说这两个文档都同等相关。对 TF 进行“标准化”(Normalization),特别是根据文档的最大 TF 值进行的标准化,成了另外一个比较常用的技巧
第三个常用的技巧,也是利用了对数函数进行变换的,是对 IDF 进行处理。相对于直接使用 IDF 来作为“惩罚因素”,我们可以使用 N+1 然后除以 DF 作为一个新的 DF 的倒数,并且再在这个基础上通过一个对数变化。这里的 N 是所有文档的总数。这样做的好处就是,第一,使用了文档总数来做标准化,很类似上面提到的标准化的思路;第二,利用对数来达到非线性增长的目的。
还有一个重要的 TF-IDF 变种,则是对查询关键字向量,以及文档向量进行标准化,使得这些向量能够不受向量里有效元素多少的影响,也就是不同的文档可能有不同的长度。在线性代数里,可以把向量都标准化为一个单位向量的长度。这个时候再进行点积运算,就相当于在原来的向量上进行余弦相似度的运算。所以,另外一个角度利用这个规则就是直接在多数时候进行余弦相似度运算,以代替点积运算。

小结

今天我为你讲了文档检索领域或者搜索领域里最基本的一个技术:TF-IDF。我们可以看到,TF-IDF 由两个核心概念组成,分别是词在文档中的频率和文档频率。TF-IDF 背后隐含的是基于向量空间模型的假设。
一起来回顾下要点:第一,简要介绍了 TF-IDF 的历史。第二,详细介绍了 TF-IDF 算法的主要组成部分。第三,简要介绍了 TF-IDF 的一些变种 。
最后,给你留一个思考题,如果要把 TF-IDF 应用到中文环境中,是否需要一些预处理的步骤?
欢迎你给我留言,和我一起讨论。
分享给需要的人,Ta购买本课程,你将得29
生成海报并分享

赞 2

提建议

上一篇
复盘 7 | 一起来读人工智能国际顶级会议论文
下一篇
032 | 经典搜索核心算法:BM25及其变种(内附全年目录)
 写留言

精选留言(11)

  • 颛顼
    2017-12-04
    中文首先要分词,分词后要解决多词一义,以及一词多义问题,这两个问题通过简单的tf-idf方法不能很好的解决,于是就有了后来的词嵌入方法,用向量来表征一个词

    作者回复: 是这样的。

    21
  • 霸气芝士草莓
    2018-08-20
    能不能加上一些公式,用公式和文字结合来表达,感觉更清晰直观
    17
  • lyhbit
    2018-10-06
    讲TF-IDF的四种变种、如果加一些图片或者例子会更好理解些
    5
  • 李沛欣
    2019-08-13
    TF词频:某一单词出现在某文档的次数 IDF逆文档频率:多个文档都出现同一单词的概率之倒数 二者向量化的乘积,能够反映出某词对整个文章的重要性。 采用余弦相似度等算法,能反映出多篇文章文章的相似性。 个人以为,这大概也是论文查重的原理
    展开
    4
  • guoguo 👻
    2018-11-17
    第一个变种那里是ln(tf)吧,log(tf)算的话值明显不对
    2
  • willow990
    2018-02-17
    你好,下面这句话我理解我点问题,能否再具体解释下,谢谢 “还有一个重要的 TF-IDF 变种,则是对查询关键字向量,以及文档向量进行标准化,使得这些向量能够不受向量里有效元素多少的影响,也就是不同的文档可能有不同的长度”
  • 东辉 (●---●...
    2017-11-14
    是否需要先分词

    作者回复: 是的。

    1
  • 追逐繁星的孩纸~
    2019-11-12
    思考题,如果要把 TF-IDF 应用到中文环境中,是否需要一些预处理的步骤? 答:要的。TF表示单词频率,对中文来说,首先就需要分句,分词,分词涉及的东西就多了,准确的分词需要涉及上下文理解,歧义词、多义词、词语搭配等处理。此外,为了统一处理,可能还会涉及简繁转换。暂时只能想到这些。
    1
  • Yang
    2019-09-09
    分词,有时候为了提高模型的效果,可能既要分词,也要分字。
  • 庄小P
    2019-05-26
    学习了,了解这些算法是怎么改进的,才会有自己改进的空间
  • 张岩kris
    2017-11-18
    文档到词向量的转换,语言先进行中文分词吧,不同分词算法,可能对最终的结果产生一定影响

    作者回复: 对,中文分词是一个很重要的步骤。

    1