Now Loading...

Now Loading...

GPT

GPT

GPTとはGenerative Pretrained Transformerの略であり、OpenAIが開発した1.1億パラメータを使用している言語モデルです。

後継のGPT-2はあまりにも自然な文章を生成できるため、開発陣が危険すぎるとし論文の公開を延期しました。現在はGPT-3が公開されており、1750億ものパラメータを持ちます。

クイズ

OpenAIによって開発されたGPT(Generative Pretrained Transformer)について述べた文章のうち、最も不適切な選択肢を一つ選べ。
  • 正解を見る
  • 解説を見る
    OpenAIによって開発されたGPTはパラメータ数が1.1億にも及ぶ言語モデルです。このモデルは自然な文章を生成できる他、文章の類似度を推測するなど、自然言語分野においてかなり強力なモデルとなっています。言語モデルは以前にもELMoなどさまざま考案されています。現在、言語モデルはパラメータ数がさらに多くなっているGPT-2,3などが出現しており、gpt-3に関してはパラメータ数が1750億まで上昇しています。

人工知能基礎講座を提供中

人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか? 人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。

サンプル動画

人工知能基礎講座はこちら↓ zero to one G検定 人工知能基礎 jdla

AIエンジニアを目指すならE資格

日本ディープラーニング協会の実施するE資格の受験に必要となるE資格認定プログラムを割引価格で提供中です。最短合格を目指す方向けのスピードパッケージを70,000円で提供中。(一発合格で33,000円のキャッシュバックキャンペーンも実施中です) zero to one E資格 jdla

AI初学者・ビジネスパーソン向けのG検定対策講座

G検定受験前にトレーニングしたい方向けの問題集「G検定実践トレーニング」も提供中です。 zero to one E資格 jdla

関連ワード

ディープラーニングの手法

畳み込みニューラルネットワーク

深層生成モデル

画像認識分野

音声処理と自然言語処理分野

深層強化学習分野

モデルの解釈性とその対応

モデルの軽量化