Now Loading...

Now Loading...

単語埋め込み

単語埋め込み

単語埋め込みとは単語を次元数の低いベクトルで表現する手法です。

ベクトルの次元は約200次元程度となっており、この手法ではベクトルの足し引きによって意味のある有効な結果が得られます。例えば王様というベクトルから男性というベクトルを引き、最後に女性というベクトルをたすと女王というベクトルが生成されます。

クイズ

自然言語処理においては,文章中の単語をコンピュータが扱える数値に変換する必要があり,word2vecのような(ア)がよく用いられる.また,文章表現を得る試みとしてword2vecを発展させたfastTextやELMoなどのモデルが提案されている.
  • 正解を見る
  • 解説を見る
    単語埋め込みモデルは,似た単語が近くなるようにベクトル空間にエンコードする手法で,ベクトルの関係として単語の意味関係を表現することが出来ます.単語埋め込みモデルの代表的なモデルがword2vecです. (参考:G検定公式テキスト P198 - 200)

特別割引クーポンのお知らせ

zero to one G検定 jdla

zero to one G検定 jdla

関連ワード

ディープラーニングの手法

畳み込みニューラルネットワーク

深層生成モデル

画像認識分野

音声処理と自然言語処理分野

深層強化学習分野

モデルの解釈性とその対応

モデルの軽量化