Now Loading...

Now Loading...

Attention

Attention

Attentionはデータの中から予測に役立つ箇所を重み付けして注目する方法で、CNNやRNNの様々なタスクに利用可能です。

クイズ

以下の文章を読み、空欄(ア)に最もよく当てはまる選択肢を1つ選べ。 (ア)は、系列データであれば予測のためにデータのどこに注目すればいいかを重みづけしていく機構である。
  • 正解を見る
  • 解説を見る
    Attentionはデータの中から予測に役立つ箇所を重み付けして注目する方法で、CNNやRNNの様々なタスクに利用可能です。 ここでEncoderの出力となる各時刻の隠れ状態には、その時刻に入力された時系列データの要素の特徴が多く含まれていると考えることができます。したがって、各時刻の隠れ状態は、その時刻にEncoderに入力された要素とみなすことができます。ここでこれらの隠れ状態に対する重要度を求めることでAttentionは「過去の入力のどの時点がどれくらいの影響を持っているか」を直接的に求めていると考えられます。 (参考: G検定公式テキスト 第2版 第6章 6-4 P244-246) (参考:G検定公式テキスト 第1版 P173)

特別割引クーポンのお知らせ

zero to one G検定 jdla

zero to one G検定 jdla

関連ワード

ディープラーニングの手法

畳み込みニューラルネットワーク

深層生成モデル

画像認識分野

音声処理と自然言語処理分野

深層強化学習分野

モデルの解釈性とその対応

モデルの軽量化