Skip to content

word_embedding #8

@JianbingDong

Description

@JianbingDong

您好,看完您的代码之后,我有一些不太能够理解的地方,希望您能帮我解决一下。

  1. 为什么英文字母就用one-hot就行了,而中文就需要用embedding层。不同的英文单词之前也是应该有联系的吧?
  2. 为什么embedding层使用的是一个随机变量来查找出单词的vector。这样的话,每个词的向量表示,不就是随机的了吗?那这个词有什么具体的含义呢?

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions