Now Loading...

Now Loading...

Self-Attention

Self-Attention

Self-Attentionは、入力Queryと索引Memoryが同じ言葉で構成されている主にTransformerで用いられるAttentionです。

クイズ

自然言語処理で人間を超えるポテンシャルを誇るTransformerはEncorder-Decorder構造を持つという特徴がある。これに用いられているAttentionとして最も適切な選択肢を一つ選べ。
  • 正解を見る
  • 解説を見る
    Self-Attentionは単語同士の照応関係を獲得します。照応関係というのは、「私は人間です」という文章において「私」と「人間」は同一のものだというような関係性のことです。これにより代名詞や多義語を正しく解釈できるようになりました。

特別割引クーポンのお知らせ

zero to one G検定 jdla

zero to one G検定 jdla

関連ワード

ディープラーニングの手法

畳み込みニューラルネットワーク

深層生成モデル

画像認識分野

音声処理と自然言語処理分野

深層強化学習分野

モデルの解釈性とその対応

モデルの軽量化