• <input id="mmiwo"><label id="mmiwo"></label></input>
  • <code id="mmiwo"><label id="mmiwo"></label></code>
  • 您正在使用IE低版浏览器,为了您的雷锋网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
    人工智能开发者 正文
    发私信给AI研习社
    发送

    3

    一文详解 Word2vec 之 Skip-Gram 模型(结构篇)

    本文作者:AI研习社 2017-06-22 12:06
    ?#21152;錚?#36825;可能是关于 Skip-Gram 模型最详细的讲解。

    雷锋网按:这是一个关于 Skip-Gram 模型的系列教程,?#26469;?#20998;为结构、训练实现三个部分,本文为第一部分:结构篇,后面两个部分我们将陆续发布,敬请期待。原文作者天雨粟,原载于作者知乎专栏,雷锋网(公众号:雷锋网)已获授权。

    这次的分享主要是对Word2Vec模型的两篇英文文档的翻译、理解和整合,这两篇英文文档都是介绍Word2Vec中的Skip-Gram模型。下一篇专栏文章将会用TensorFlow实现基础版Word2Vec的skip-gram模型,所以本篇文章先做一个理论铺垫。

    原文英文文?#30331;?#21442;考链接:

    - Word2Vec Tutorial - The Skip-Gram Model

    http://t.cn/Rc5RfJ2

    - Word2Vec (Part 1): NLP With Deep Learning with Tensorflow (Skip-gram)

    http://t.cn/RoVEiUB

    什么是Word2Vec和Embeddings?

    Word2Vec是从大量文本语?#29616;?#20197;无监督的方式学习语义知识的一种模型,它被大量地用在自然语言处理(NLP)中。那么它是如何帮助我们做自然语言处理呢?Word2Vec其实就是通过学习文本来用词向量的方式表征词的语义信息,即通过一个?#24230;?#31354;间使得语义上相似的单词在该空间内距离很近。Embedding其实就是一个映射,将单词从原?#20154;?#23646;的空间映射到新的多维空间中,也就是把原先词所在空间?#24230;?#21040;一个新的空间中去。

    我们从直观角度上来理解一下,cat这个单词和kitten属于语义上很相近的词,而dog和kitten则不是那么相近,iphone这个单词和kitten的语义就差的更远了。通过对?#39542;?#34920;中单?#24335;?#34892;这种数?#24403;?#31034;方式的学习(也就是将单?#39318;?#25442;为词向量),能够让我们基于这样的数?#21040;?#34892;向量化的操作从而得到一些有趣的结论。比如说,如果我们对词向量kitten、cat以及dog执行这样的操作:kitten - cat + dog,那么最终得到的?#24230;?#21521;量(embedded vector)将与puppy这个词向量十分相近。

    模型

    Word2Vec模型中,主要有Skip-Gram和CBOW两种模型,从直观上理解,Skip-Gram是给定input word来预测上下文。而CBOW是给定上下文,来预测input word。本篇文章仅讲解Skip-Gram模型。

    一文详解 Word2vec 之 Skip-Gram 模型(结构篇)

    Skip-Gram模型的基础形式非常简单,为了更清楚地解释模型,我们先从最一般的基础模型来看Word2Vec(下文中所有的Word2Vec都是指Skip-Gram模型)。

    Word2Vec模型?#23548;?#19978;分为了两个部分,第一部分为建立模型,第二部分是通过模型获取?#24230;?#35789;向量。Word2Vec的整个建模过程?#23548;?#19978;与自编码器(auto-encoder)的思想很相似,即先基于训练数据构建一个神经网络,当这个模型训练好?#38498;螅?#25105;们并不会用这个训练好的模型处理新的任务,我们真正需要的是这个模型通过训练数据所学得的参数,例如隐层的权重矩阵——后面我们将会看到这些权重在Word2Vec中?#23548;?#19978;就是我们试图去学习的“word vectors”。基于训练数据建模的过程,我们给它一个名字叫“Fake Task?#20445;?#24847;味着建模并不是我们最终的目的。

    上面提到的这种方法?#23548;?#19978;会在无监?#25945;?#24449;学习(unsupervised feature learning)中见到,最常见的就是自编码器(auto-encoder)?#21644;?#36807;在隐层将输入进行编码压缩,继而在输出层将数据解码?#25351;?#21021;始状态,训练完成后,我们会将输出层“砍掉?#20445;?#20165;保留隐层。

    The Fake Task

    我们在上面提到,训练模型的真正目的是获得模型基于训练数据学得的隐层权重。为了得到这些权重,我们首先要构建一个完整的神经网络作为我们的“Fake Task?#20445;?#21518;面再返回来看通过“Fake Task”我们如何间接地得到这些词向量。

    接下来我们来看看如何训练我们的神经网络。假如我们有一个句子“The dog barked at the mailman”

    • 首先我们选句子中间的一个?#39318;?#20026;我们的输入词,例如我们选取“dog”作为input word;

    • 有了input word?#38498;螅?#25105;们再定义一个叫做skip_window的参数,它代表着我们从当前input word的一侧(左边或右边)选取词的数量。如果我们设置skip_window=2,那?#27425;?#20204;最终获?#20040;?#21475;中的词(包括input word在内)就是['The', 'dog','barked', 'at']。skip_window=2代表着选取左input word左侧2个词和?#20063;?个?#24335;?#20837;我们的窗口,所以整个窗口大小span=2x2=4。另一个参数叫num_skips,它代表着我们从整个窗口中选取多少个不同的?#39318;?#20026;我们的output word,当skip_window=2,num_skips=2时,我们将会得到两组 (input word, output word) 形式的训练数据,即 ('dog', 'barked')('dog', 'the')

    • 神经网络基于这些训练数据将会输出一个概率分布,这个概率代表着我们的?#23454;?#20013;的每个词是output word的可能性。这句话有点绕,我们来看个栗子。第二步中我们在设置skip_window和num_skips=2的情况下获得了两组训练数据。假如我们先拿一组数据 ('dog', 'barked') 来训练神经网络,那么模型通过学习这个训练样本,会告诉我们?#39542;?#34920;中每个单词是“barked”的概率大小。

    模型的输出概率代表着到我们?#23454;?#20013;每个词有多大可能性跟input word同时出现。举个栗子,如果我们向神经网络模型中输入一个单词“Soviet“,那么最终模型的输出概率中,像“Union?#20445;?”Russia“这种相关词的概率将远高于像”watermelon“,”kangaroo“非相关词的概率。因为”Union“,”Russia“在文本中更大可能在”Soviet“的窗口中出现。我们将通过给神经网络输入文本中成对的单词来训练它完成上面所说的概率计算。下面的图中给出了一些我们的训练样本的例子。我们选定句子“The quick brown fox jumps over lazy dog”,设定我们的窗口大小为2(window_size=2),也就是说我们仅选输入?#26159;?#21518;各两个词和输入?#24335;?#34892;组合。下图中,蓝色代表input word,方框内代表位于窗口内的单词。

    一文详解 Word2vec 之 Skip-Gram 模型(结构篇)

    我们的模型将会?#29992;?#23545;单词出现的次数中习得统计结果。例如,我们的神经网络可能会得到更多类似(“Soviet“,”Union“)这样的训练样本对,而对于(”Soviet“,”Sasquatch“)这样的组合却看到的很少。因此,当我们的模型完成训练后,给定一个单词”Soviet“作为输入,输出的结果中”Union“或者”Russia“要比”Sasquatch“被赋予更高的概率。

    模型细节

    我们如何来表示这些单词呢?首先,我们都知道神经网络只能接受数值输入,我们不可能把一个单?#39318;?#31526;串作为输入,因此我们得想个办法来表示这些单词。最常用的办法就是基于训练文档来构建我们自己的?#39542;?#34920;(vocabulary)再对单?#24335;?#34892;one-hot编码。

    假设从我们的训练文档中抽取出10000个唯一不重复的单?#39318;?#25104;?#39542;?#34920;。我们对这10000个单?#24335;?#34892;one-hot编码,得到的每个单词都是一个10000维的向量,向量每个维度的值只有0或者1,假如单词ants在?#39542;?#34920;中的出现位置为第3个,那么ants的向量就是一个第三维度取值为1,其他维都为0的10000维的向量(ants=[0, 0, 1, 0, ..., 0])。

    还是上面的例子,“The dog barked at the mailman?#20445;?#37027;?#27425;?#20204;基于这个句子,可以构建一个大小为5的?#39542;?#34920;(忽略大小写和标点符号):("the", "dog", "barked", "at", "mailman"),我们对这个?#39542;?#34920;的单?#24335;?#34892;编号0-4。那?#30784;眃og“就可以被表示为一个5维向量[0, 1, 0, 0, 0]。

    模型的输入如果为一个10000维的向量,那么输出也是一个10000维度(?#39542;?#34920;的大小)的向量,它包含了10000个概率,每一个概率代表着当?#25353;?#26159;输入样本中output word的概率大小。

    下图是我们神经网络的结构:

    一文详解 Word2vec 之 Skip-Gram 模型(结构篇)

    隐层没有使用任何激活函数,但是输出层使用了sotfmax。

    我们基于成对的单词来对神经网络进行训练,训练样本是 ( input word, output word ) 这样的单词对,input word和output word都是one-hot编码的向量。最终模型的输出是一个概率分布。

    隐层

    ?#20302;?#21333;词的编码和训练样本的选取,我们来看下我们的隐层。如果我们现在想用300个特征来表示一个单词(即每个词可以被表示为300维的向量)。那么隐层的权重矩阵应该为10000行,300列(隐层有300个结点)。

    Google在最新发布的基于Google news数据集训练的模型中使用的就是300个特征的词向量。词向量的维度是一个可以调节的超参数(在Python的gensim包中封装的Word2Vec接口默认的词向量大小为100, window_size为5)。

    看下面的?#35745;?#24038;右两张图分别?#30828;?#21516;角度代表了输入层-隐层的权重矩阵。左图中每一列代表一个10000维的词向量和隐层单个神经元连接的权重向量。从右边的图来看,每一行?#23548;?#19978;代表了每个单词的词向量。

    一文详解 Word2vec 之 Skip-Gram 模型(结构篇)

    所以我们最终的目标就是学习这个隐层的权重矩阵。

    我们现在回来接着通过模型的定义来训练我们的这个模型。

    上面我们提到,input word和output word都会被我们进行one-hot编码。仔细想一下,我们的输入被one-hot编码?#38498;?#22823;多数维度上都是0(?#23548;?#19978;仅有一个位置为1),所以这个向量相当稀疏,那么会造成什么结果呢。如果我们将一个1 x 10000的向量和10000 x 300的矩阵相乘,它会消耗相当大的计算?#35797;矗?#20026;了高效计算,它仅仅会选择矩阵中对应的向量中维度值为1的索引行(这句话很绕),看图就明白。

    一文详解 Word2vec 之 Skip-Gram 模型(结构篇)

    我们来看一下上图中的矩阵运算,左边分别是1 x 5和5 x 3的矩阵,结果应该是1 x 3的矩阵,按照矩阵乘法的规则,结果的第一行第一列元素为0 x 17 + 0 x 23 + 0 x 4 + 1 x 10 + 0 x 11 = 10,同理可得其余两个元素为12,19。如果10000个维度的矩阵采用这样的计算方式是十分低效的。

    为了?#34892;?#22320;进行计算,这种稀疏状态下不会进行矩阵乘法计算,可以看到矩阵的计算的结果?#23548;?#19978;是矩阵对应的向量中值为1的索引,上面的例子中,左边向量中取值为1的对应维度为3(下标从0开始),那么计算结果就是矩阵的第3行(下标从0开始)—— [10, 12, 19],这样模型中的隐层权重矩阵便成了一个”查找表“(lookup table),进行矩阵计算时,直接去查输入向量中取值为1的维度下对应的那些权重值。隐层的输出就是每个输入单词的“?#24230;?#35789;向量”。

    输出层

    经过神经网络隐层的计算,ants这个?#39542;?#20174;一个1 x 10000的向量变成1 x 300的向量,再被输入到输出层。输出层是一个softmax回归分类器,它的每个结点将会输出一个0-1之间的值(概率),这些所有输出层神经元结点的概率之和为1。

    下面是一个例子,训练样本为 (input word: “ants?#20445;?output word: “car”) 的计算示意图。

    一文详解 Word2vec 之 Skip-Gram 模型(结构篇)

    ?#26412;?#19978;的理解

    下面我们将通过?#26412;?#26469;进行一些思考。

    如果两个不同的单词有着非常相似的“上下文?#20445;?#20063;就是窗口单词很相似,比如“Kitty climbed the tree”和“Cat climbed the tree?#20445;?#37027;么通过我们的模型训练,这两个单词的?#24230;?#21521;量将非常相似。

    那么两个单词拥有相似的“上下文”到底是什么含义呢?比如对于同义词“intelligent”和“smart?#20445;?#25105;们觉得这两个单词应该拥有相同的“上下文”。而例如”engine“和”transmission“这样相关的词语,可能也拥有着相似的上下文。

    ?#23548;?#19978;,这种方法?#23548;?#19978;也可以帮助你进行词干化(stemming),例如,神经网络对”ant“和”ants”两个单?#39542;?#20064;得相似的词向量。

    词干化(stemming)就是去除?#39318;?#24471;到词根的过程。

    雷锋网相关阅读:

    一文详解 Word2vec 之 Skip-Gram 模型(训练篇)

    一文详解 Word2vec 之 Skip-Gram 模型(实现篇)

    25 行 Python 代码实现人脸检测——OpenCV 技术教程

    雷锋网版权文章,未经授权禁止转载。详情见转载须知

    分享:
    相关文章

    文章点评:

    表情
    最新文章
    请填写申请人资料
    姓名
    电话
    邮箱
    微信号
    作品链接
    个人简介
    为了您的账户安全,请验证邮箱
    您的邮箱还未验证,完成可获20积分哟!
    请验证您的邮箱
    立即验证
    完善账号信息
    您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
    立即设置 ?#38498;?#20877;说
    11选5下期推算方法