今回はLLMで使用される技術であるRetrieval-Augmented Generationについて解説していきます。RAGはユーザーからのクリエに対して、学習データだけではなく、外部のデータを参照することで、より正確に回答する手法です。
既存のLLMの仕組み
既存のLLMモデルは事前に学習した学習データに基づいて回答を作成します。大規模な言語モデルは様々なことを学習することによって、汎用性の高い回答を可能にしていますが、動的に学習を行っているわけではないので、学んでいない事柄に対しては適切に回答できません。例えば、個人の情報や、学習後に作られた言葉などに対しては、適切に回答することができません。

つまり、既存の手法では、未知の単語に対しては適切に回答を生成することができないわけです。そのため、最新の動向について答えられるようになるためには、再学習を行う必要があり、またプライベートな情報には回答することができません。
RAGの仕組みと役割
RAGはLLMモデルの回答生成において、学習データ以外の信頼できる外部のデータを参照することで、学習していない内容についても高精度に返答することを可能にする技術です。外部データはインターネットのものだけでなく、社内文書などのデータも利用可能です。

上記の図のように、LLMはクリエの内容に対応する情報をインターネットや社内文書から検索することで、クリエの内容に対応する内容を見つけます。そして、その内容とこれまで学習した内容に基づいて回答を生成するわけです。
下記の例では、会社のデータベースにアクセスすることで、本来学習には使用できないデータについて、回答できる仕組みになっています。

近年、多くの企業が大規模言語モデル(LLM)をベースにした社内専用LLMの導入を進めています。これにより、通常のLLMでは扱えない社外秘の情報にも対応可能となり、業務効率が向上しています。さらに、役職や部門ごとにアクセス制限を設けることで、適切なデータへのアクセスを管理しつつ、個々の業務に応じた柔軟な回答が得られる仕組みが整備されています。この社内専用LLMは、企業内の情報活用を一層進化させるツールとして注目されています。
まとめ
今回は、LLMによく応用されているRetrieval-Augmented Generationについて解説しました。具体的な応用例が知りたい方は、各企業が持つ会社独自のLLMなどについて調べてみてください。