Adversarial Example

画像学習

AIを欺く攻撃:敵対的攻撃とは?

近年、人工知能(AI)は目覚ましい発展を遂げ、画像認識や音声認識といった様々な分野で活躍しています。AIは膨大なデータを学習することで、人間顔負けの精度で物事を識別できるようになりました。しかし、その一方で、AIにはまだ克服すべき弱点も存在します。その一つが「敵対的攻撃」と呼ばれる、AIの脆弱性を突いた攻撃手法です。 敵対的攻撃とは、AIモデルに入力するデータに、人間には感知できない程度の微妙な変更を加えることで、AIの判断を狂わせる攻撃手法です。例えば、画像認識AIを騙す場合を考えてみましょう。AIが「パンダ」の画像を正しく認識しているとします。このとき、画像にノイズと呼ばれるごくわずかな変更を加えます。すると、人間には変化が分からないにも関わらず、AIはこの画像を「テナガザル」と誤認識してしまうのです。 このように、敵対的攻撃はAIの認識能力を混乱させ、誤った判断に導く危険性があります。自動運転システムに組み込まれたAIが、標識を誤認識して事故を引き起こす可能性も考えられます。そのため、敵対的攻撃に対する対策は、AIの安全性を確保する上で非常に重要な課題となっています。