GPT-2
GPT-2は、GPT-1に続いて2019年2月にOpenAIから発表された、文章生成を行う言語モデルである。従来のGPT-1と比較し、以下の点が特徴である。
- パラメータ数: 15億個(10倍に増加)
- 訓練データ(言語コーパス): 800万のページ。約6億7千万文。(10倍に増加)
- さらに大きな言語コーパスでの学習により、特定のタスクへのファインチューニングは行わなくても、zero-shot学習やfew-shot学習で高い精度を実現。しかし、長文に対する返答では、ファインチューニングなしでの精度は今ひとつ。
- アテンション機構の利用により、入力テキストの中から最も関連性が高いと予測される部位に選択的に焦点を当てることが可能に。(RNN/CNN/LSTMに基づくモデルであったGPT-1よりも高性能に)
👉より体系的に学びたい方は「人工知能基礎」(東京大学松尾豊先生監修)へ
クイズ
文章を生成する言語モデルであるGPT-2は、チャットボットや記事の執筆等様々なタスクに応用可能である。開発元のOpenAIはGPT-2の公開に懸念を示したが、その要因として最も不適切な選択肢を1つ選べ。
人工知能基礎講座を提供中
人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか?
人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。
サンプル動画
AI初学者・ビジネスパーソン向けのG検定対策講座
zero to oneの「E資格」向け認定プログラム
日本ディープラーニング協会の実施するE資格の受験ならzero to oneの「E資格」向け認定プログラム (税込165,000円) をおすすめします。当講座は、東京大学大学院工学系研究科の松尾豊教授と東北大学大学院情報科学研究科の岡谷貴之教授が監修する実践的なプログラムとなっています。
厚生労働省の教育訓練給付制度対象のE資格認定プログラムの中では最安値※となり、実質負担額49,500円~(支給割合70%の場合)で受講可能です。※2023年弊社調べ