Now Loading...

Now Loading...

BERT

BERT

BERTとは、Bidirectional Encoder Representations from Transformersの略であり、2018年10月にGoogleから発表された自然言語処理技術です。

クイズ

以下の文章を読み,空欄(ア)~(イ)の組み合わせに最もよく当てはまる選択肢を1つ選べ. 2018年にGoogleが発表した(ア)は,複数のタスクで人間を上回ったとして自然言語処理におけるブレークスルーとなった.このモデルは事前学習モデルであり,(イ)によって様々なタスクに高い精度で適用できる.
  • 正解を見る
  • 解説を見る
    基本的に従来のニューラルネットワークを用いた自然言語処理モデルは特定のタスクのみに対応していますが,BERTは事前学習モデルであり,様々なタスクにファインチューニング(転移学習)することで,少ないデータ量で精度の高いモデルが得られます.

特別割引クーポンのお知らせ

<人工知能基礎&G検定実践問題集>

・クーポン:aibgt220920-2bso
・有効期間:2022年10月21日(金)

*使い方:以下バナーより「購入する」に進んでいただき、左下のクーポン欄にご記入、適用してください。

zero to one G検定 jdla

<G検定実践トレーニング>

・クーポン:gt220920-1dao
・有効期間:2022年10月21日(金)

*使い方:以下バナーより「購入する」に進んでいただき、左下のクーポン欄にご記入、適用してください。

zero to one G検定 jdla

関連ワード

ディープラーニングの手法

畳み込みニューラルネットワーク

深層生成モデル

画像認識分野

音声処理と自然言語処理分野

深層強化学習分野

モデルの解釈性とその対応

モデルの軽量化