Now Loading...

Now Loading...

モデルの解釈

モデルの解釈

AIを実世界に用いる上で、モデルの解釈性は重要な問題です。

AIは一般的にブラックボックスであり、予測の根拠を人間に分かるように説明することを苦手とします。例えば、医療や司法等の判断にAIを用いることを考えると、何故結論に至ったかを説明できなければ受け入れてもらえないかもしれません。

👉より体系的に学びたい方は「人工知能基礎」(東京大学松尾豊先生監修)へ

クイズ

以下の文章を読み、空欄(ア)に最もよく当てはまる選択肢を1つ選べ。 ディープラーニングなどのモデルでは、予測結果に至った過程や根拠がわからないという問題があり、このように中身が説明できない場合、社会の中では信頼して使うことが難しい。このような背景から、近年XAI(Explainable AI)の研究が注目されている。XAIは説明可能なAIという意味であり、例えば(ア)といった、予測過程や根拠を提示できるモデル、およびその研究である。
  • 正解を見る
  • 解説を見る
    ディープラーニングなどのモデルでは、データを入力すると自動で結果を出すため、中身がブラックボックスと言われます。その中身、すなわち予測結果に至った過程、根拠を提示できるようにするのがXAIです。他の選択肢はモデルを作成するときに人が設定するものであり、ブラックボックスではありません。

    👉G検定の受験対策は約1,000問収録の「G検定実践トレーニング」へ

人工知能基礎講座を提供中

人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか? 人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。

サンプル動画

人工知能基礎講座はこちら↓ zero to one G検定 人工知能基礎 jdla

AI初学者・ビジネスパーソン向けのG検定対策講座

G検定受験前にトレーニングしたい方向けの問題集「G検定実践トレーニング」も提供中です。 zero to one E資格 jdla

zero to oneの「E資格」向け認定プログラム

日本ディープラーニング協会の実施するE資格の受験ならzero to oneの「E資格」向け認定プログラム (税込165,000円) をおすすめします。当講座は、東京大学大学院工学系研究科の松尾豊教授と東北大学大学院情報科学研究科の岡谷貴之教授が監修する実践的なプログラムとなっています。 厚生労働省の教育訓練給付制度対象のE資格認定プログラムの中では最安値※となり、実質負担額49,500円~(支給割合70%の場合)で受講可能です。※2023年弊社調べ zero to one E資格 jdla

関連ワード

ディープラーニングの手法

畳み込みニューラルネットワーク

深層生成モデル

画像認識分野

音声処理と自然言語処理分野

深層強化学習分野

モデルの解釈性とその対応

モデルの軽量化