GPT-3
GPT-3
GPT-3は、GPT-2に続いて2020年6月にOpenAIから発表された、文章生成を行う自己回帰型の言語モデルである。従来のGPT-2と比較し、以下の点が特徴である。
- パラメータ数: 1750億個(およそ110倍に増加)
- 訓練データ(言語コーパス): 2048トークン長。570GB。(およそ15倍に増加)
- さらに大きな言語コーパスでの学習により、特定のタスクへのファインチューニングは行わず、zero-shot学習やfew-shot学習で高い精度を実現。再学習用教師データの集積にかかる労力を削減
- 構造は、DecoderのみのTransformerネットワーク。
👉より体系的に学びたい方は「人工知能基礎」(東京大学松尾豊先生監修)へ
クイズ
2020年に公開され自然言語処理分野に大きな衝撃を与えた、OpenAiが開発した教師なし学習を用いたTransformer言語モデルとして最も適切な選択肢を 1 つ選べ。
人工知能基礎講座を提供中
人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか?
人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。
サンプル動画
AI初学者・ビジネスパーソン向けのG検定対策講座
zero to oneの「E資格」向け認定プログラム
日本ディープラーニング協会の実施するE資格の受験ならzero to oneの「E資格」向け認定プログラム (税込165,000円) をおすすめします。当講座は、東京大学大学院工学系研究科の松尾豊教授と東北大学大学院情報科学研究科の岡谷貴之教授が監修する実践的なプログラムとなっています。
厚生労働省の教育訓練給付制度対象のE資格認定プログラムの中では最安値※となり、実質負担額49,500円~(支給割合70%の場合)で受講可能です。※2023年弊社調べ