美文网首页
Word2Vector

Word2Vector

作者: 冯凯onmyway | 来源:发表于2017-12-07 09:25 被阅读0次

Word2Vec模型中,主要有Skip-Gram和CBOW两种模型,从直观上理解,Skip-Gram是给定input word来预测上下文。而CBOW是给定上下文,来预测input word。

Skip-Gram的实现逻辑类似于自编码器,模型的输出不是最终结果,隐层构成的向量才是所要的vector。

以句子The quick brown fox jumps over the lazy dog为例,实现过程为

1 选定词语fox作为input-word

2 定义skip-window作为input-word的上下文范围,如skip-window=2,fox的上下文为quick,brown, jumps, over,组成的样本对(fox,quick),(fox,brown), (fox,jumps), (fox,over)。定义窗口中选取的样本对个数num-skips,如果num-skips=2,skip-window=2,则从四组样本中随机选取两组作为样本。

Skip-Gram样本选取过程

3 对样本word进行编码,如one-hot编码。

4 定义网络。假设总词汇量是5000,则输入维度设为5000维,输出维度同样是5000维,表示每一个单词的概率。隐层可以设置为100(在Python的gensim包中封装的Word2Vec接口默认的词向量大小为100, window_size为5)。

6 训练得到网络参数,把输出层去掉,隐层作为输出层,输入单词,即可得到对应向量。 

直观上理解,如果两个不同的单词有着非常相似的“上下文”(也就是窗口单词很相似,比如“Kitty climbed the tree”和“Cat climbed the tree”),那么通过我们的模型训练,这两个单词的嵌入向量将非常相似。

相关文章

  • ValueError: Input X must be non-

    这是使用word2vector + MultinomialNB训练时会出现的一个问题。由于word2vector对...

  • 论文

    word2vector 原理Distributed Representations of Words and Ph...

  • Word2Vector

    Word2Vec模型中,主要有Skip-Gram和CBOW两种模型,从直观上理解,Skip-Gram是给定inpu...

  • word2vector

    word2vec词向量训练及中文文本相似度计算 深度学习必须熟悉的算法之word2vector(一) 理解Word...

  • Word2Vector 算法

    谈谈谷歌word2vec的原理github上的资料(1) word2vec 中的数学原理详解 word2vec源码...

  • word2vector简介

    word2vec官网:https://code.google.com/p/word2vec/ word2vec是g...

  • 第二篇: 词向量之Spark word2vector实战

    一、概述 word2vector 是google开源的一个生成词向量的工具,以语言模型为优化目标,迭代更新训练文本...

  • word2vector的原理,结构,训练过程

    之前用word2vector模型,上网找原理,出现各种CSDN上的解答。看了一下,都是copy某个人写的东西,而且...

  • 机器学习必须熟悉的算法之word2vector(一)

    word2vector已经成为NLP领域的基石算法。作为一名AI 从业者,如果不能主动去熟悉该算法,应该感到脸红。...

  • NLP.TM | 再看word2vector

    再看word2vector NLP.TM似乎很久没有更新了哈哈哈,其实有些积累了,后面慢慢开始写。 word2ve...

网友评论

      本文标题:Word2Vector

      本文链接:https://www.haomeiwen.com/subject/unorixtx.html