Now Loading...

Now Loading...

敵対的な攻撃(Adversarial attacks)

敵対的な攻撃(Adversarial attacks)

敵対的な攻撃(adversarial attacks)は、システムを悪用することを目的に行われる、AIモデルの認識を混乱させる方法です。
攻撃の手段としては、なりすましや、脆弱性を利用した不正アクセスなどが考えられます。

👉より体系的に学びたい方は「人工知能基礎」(東京大学松尾豊先生監修)へ

クイズ

AIを実社会で活用していくには、システムの利便性のみを考えることだけではなく、想定外の振る舞いを引き起こす攻撃として挙げられる敵対的な攻撃(Adversarial attacks)に対しての対処も必要である。これに関して最も適切な選択肢を一つ選べ。
  • 正解を見る
  • 解説を見る
    敵対的な攻撃は入力に操作を加え、モデルを誤認識させます。具体的には、パンダの画像にとあるノイズを加えることでAIがテナガザルだと誤認識したエピソードが有名です。ノイズを加えても人間には違いが分からないので、悪意を持った人間が道路標識に特定のノイズ画像を貼ることにより自動運転車が危険な運転をする等の危険性が考えられます。

    👉G検定の受験対策は約1,000問収録の「G検定実践トレーニング」へ

人工知能基礎講座を提供中

人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか? 人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。

サンプル動画

人工知能基礎講座はこちら↓ zero to one G検定 人工知能基礎 jdla

AI初学者・ビジネスパーソン向けのG検定対策講座

G検定受験前にトレーニングしたい方向けの問題集「G検定実践トレーニング」も提供中です。 zero to one E資格 jdla

zero to oneの「E資格」向け認定プログラム

日本ディープラーニング協会の実施するE資格の受験ならzero to oneの「E資格」向け認定プログラム (税込165,000円) をおすすめします。当講座は、東京大学大学院工学系研究科の松尾豊教授と東北大学大学院情報科学研究科の岡谷貴之教授が監修する実践的なプログラムとなっています。 厚生労働省の教育訓練給付制度対象のE資格認定プログラムの中では最安値※となり、実質負担額49,500円~(支給割合70%の場合)で受講可能です。※2023年弊社調べ zero to one E資格 jdla