Now Loading...

Now Loading...

Self-Attention

Self-Attention

Self-Attentionは、入力Queryと索引Memoryが同じ言葉で構成されている主にTransformerで用いられるAttentionです。

クイズ

自然言語処理で人間を超えるポテンシャルを誇るTransformerはEncorder-Decorder構造を持つという特徴がある。これに用いられているAttentionとして最も適切な選択肢を一つ選べ。
  • 正解を見る
  • 解説を見る
    Self-Attentionは単語同士の照応関係を獲得します。照応関係というのは、「私は人間です」という文章において「私」と「人間」は同一のものだというような関係性のことです。これにより代名詞や多義語を正しく解釈できるようになりました。

人工知能基礎講座を提供中

人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか? 人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。

サンプル動画

人工知能基礎講座はこちら↓ zero to one G検定 人工知能基礎 jdla

AIエンジニアを目指すならE資格

日本ディープラーニング協会の実施するE資格の受験に必要となるE資格認定プログラムを割引価格で提供中です。最短合格を目指す方向けのスピードパッケージを70,000円で提供中。(一発合格で33,000円のキャッシュバックキャンペーンも実施中です) zero to one E資格 jdla

AI初学者・ビジネスパーソン向けのG検定対策講座

G検定受験前にトレーニングしたい方向けの問題集「G検定実践トレーニング」も提供中です。 zero to one E資格 jdla

関連ワード

ディープラーニングの手法

畳み込みニューラルネットワーク

深層生成モデル

画像認識分野

音声処理と自然言語処理分野

深層強化学習分野

モデルの解釈性とその対応

モデルの軽量化