我在用CBOW方式训练词向量模型模型时,loss是慢慢下降的,但是在列出相似度最高的词时发现:每一轮训练后,几个测试的目标词的前5个相似词都是同一批词。打个比方,测试词为wrod,take,think的话得出的,他们每个词的前五个最相近的词都包括one, the, a,即使测试三个词的意义没有任何关联。这是怎么造成的?是每轮训练参数更新得太多了么?或者是因为高频词抑制的不够么?
请登录后评论
TOP
切换版块