Now Loading...

Now Loading...

単語埋め込み

単語埋め込み

単語埋め込みとは単語を次元数の低いベクトルで表現する手法です。

ベクトルの次元は約200次元程度となっており、この手法ではベクトルの足し引きによって意味のある有効な結果が得られます。例えば王様というベクトルから男性というベクトルを引き、最後に女性というベクトルをたすと女王というベクトルが生成されます。

クイズ

自然言語処理においては,文章中の単語をコンピュータが扱える数値に変換する必要があり,word2vecのような(ア)がよく用いられる.また,文章表現を得る試みとしてword2vecを発展させたfastTextやELMoなどのモデルが提案されている.
  • 正解を見る
  • 解説を見る
    単語埋め込みモデルは,似た単語が近くなるようにベクトル空間にエンコードする手法で,ベクトルの関係として単語の意味関係を表現することが出来ます.単語埋め込みモデルの代表的なモデルがword2vecです. (参考:G検定公式テキスト P198 - 200)

人工知能基礎講座を提供中

人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか? 人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。

サンプル動画

人工知能基礎講座はこちら↓ zero to one G検定 人工知能基礎 jdla

AIエンジニアを目指すならE資格

日本ディープラーニング協会の実施するE資格の受験に必要となるE資格認定プログラムを割引価格で提供中です。最短合格を目指す方向けのスピードパッケージを70,000円で提供中。(一発合格で33,000円のキャッシュバックキャンペーンも実施中です) zero to one E資格 jdla

AI初学者・ビジネスパーソン向けのG検定対策講座

G検定受験前にトレーニングしたい方向けの問題集「G検定実践トレーニング」も提供中です。 zero to one E資格 jdla

関連ワード

ディープラーニングの手法

畳み込みニューラルネットワーク

深層生成モデル

画像認識分野

音声処理と自然言語処理分野

深層強化学習分野

モデルの解釈性とその対応

モデルの軽量化