[本文]

国・地域名:
米国
元記事の言語:
英語
公開機関:
国防高等研究計画局(DARPA)
元記事公開日:
2019/02/06
抄訳記事公開日:
2019/04/04

機械学習モデルを攻撃する敵対的AIからの防御手段を開発するためのDARPAプログラム

Defending Against Adversarial Artificial Intelligence

本文:

2月6日付の国防高等研究計画局(DARPA)による標記報道発表の概要は以下のとおりである。

機械学習(ML)はその本領を発揮して、高度に効率的な製造、医療、大量の情報分析から自動運転輸送まで、更にはそれ以上の多様な応用において人類に貢献しようとしている。しかしながら、誤用・悪用されたり、正常に機能しないようにされたりすれば、MLは大きな損害を与える可能性を有している。これがMLの諸刃の剣である。

よく引用される例では、自動運転車に用いられているMLは視覚的に変更された一時停止標識に騙される。変更された一時停止標識を見た人間はその意味を理解するのに困難はないが、MLは誤って時速45マイルの掲示と解釈した。現実世界におけるこのような攻撃においては、自動運転車は一時停止の標識を通過するときに加速し、悲惨な結果を引き起こす可能性がある。これは、実質的に全てのMLアプリケーションに適用可能な攻撃として見つかった多数の攻撃の中の一例に過ぎない。

このような安全上の課題に対処するため、DARPAは「欺瞞に対するAIの堅牢性の保証」(GARD)プログラムを創設した。GARDは、MLモデルを欺こうとする敵の攻撃に対する新世代の防御手段を開発することを目指している。現行の防御手段は、特定の、定義された攻撃から防御するよう設計されており、試験時には、設計パラメータから外れた攻撃には脆弱であった。GARDは、与えられたシナリオのもとで起こりうる多数の攻撃に対応するための幅広い防御手段を開発することにより、MLを様々な方法で防御しようとしている。

敵対的AIに対する、GARDの新奇の対応は、3つの主要な目的に焦点を当てている:1)防御可能なMLの理論的基礎の構築と、それに基づく新しい防御メカニズムのレキシコン(語彙目録)の開発、2)多様な状況設定における防御可能システムの創造と試験、3)脅威シナリオに対するMLの防御能力の特性評価をするための新たなテストベッドの構築。これらの相互に依存するプログラム要素を通して、GARDは、堅牢性を評価するための厳格な基準を有する、欺瞞に対する抵抗力のあるML技術を開発することを目指す。

GARDは、生物学を含め、防御力の可能性を求めて、多くの研究の方向を探索する。

GARDは現在のニーズに取り組むが、同時に将来のチャレンジも念頭に置く。このプログラムは、最初、最新の画像ベースのMLに集中し、次に映像や音声、そしてさらに複雑なシステム(マルチセンサー、マルチモダリティの変化形を含む)に進む。また、その寿命期間を通じて、予測、決定および適応が可能なMLにも取り組む。

[DW編集局+JSTワシントン事務所]