RLHF
RLHF(Reinforcement Learning with Human Feedback)とはAIが人間の意図に合うように学習(Alignment)するために、モデルの出力に対して人間がフィードバックを行い追加の学習を行う手法です。
通常のファインチューニングの後に行われ、これらの2つを含めて、広義のファインチューニングとして扱われることが多いです。
具体的な手法は主に3stepあり、1step目でプロンプトと対応する模範回答のペアから教師あり学習を行います。2step目で質問に対して複数の回答をAIから獲得し、人が順位付けを行います。これを元に報酬モデルを学習します。3step目に1step目と2step目を元に強化学習を行います。
👉より体系的に学びたい方は「人工知能基礎」(東京大学松尾豊先生監修)へ
RLHFの説明として正しいものを選べ
人工知能基礎講座を提供中
人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか?
人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。
サンプル動画
AI初学者・ビジネスパーソン向けのG検定対策講座
zero to oneの「E資格」向け認定プログラム
日本ディープラーニング協会の実施するE資格の受験ならzero to oneの「E資格」向け認定プログラム (税込165,000円) をおすすめします。当講座は、東京大学大学院工学系研究科の松尾豊教授と東北大学大学院情報科学研究科の岡谷貴之教授が監修する実践的なプログラムとなっています。
厚生労働省の教育訓練給付制度対象のE資格認定プログラムの中では最安値※となり、実質負担額49,500円~(支給割合70%の場合)で受講可能です。※2023年弊社調べ