[本文]
-
- 国・地域名:
- 米国
- 元記事の言語:
- 英語
- 公開機関:
- 国防総省(DOD)
- 元記事公開日:
- 2019/11/01
- 抄訳記事公開日:
-
国防イノベーション委員会がAI倫理ガイドラインを提案
- 本文:
-
2019年11月1日付けの国防総省(DOD)による標記記事の概要は以下のとおりである。
国家防衛戦略において、DODにはAI倫理ガイドラインの策定が求められている。2018年7月、DODは、国防イノベーション委員会(DIB)に対して、一連の検討用のAI倫理原則を提案するように命じた。それ以来、DIBは、産業界、学界、民間部門の専門家との多くの議論を含む広範な調査を実施してきた。DIBは昨日、ジョージタウン大学で開かれた公開会議で、以下の推奨されたAI倫理原則について議論し、全員一致で承認した。
- 責任:DODのAIシステムの開発、展開、使用、および結果に対して人間は適切なレベルでの判断を下し、責任を持ち続けなければならない。
- 公平性:DODは、
戦闘・非戦闘AIシステムの開発と展開において、誤って人間に危害を加えることのないように、意図しないバイアスを回避するための慎重な措置を講じなければならない。 - 追跡可能性:DODは、技術専門家がAIシステムの技術、開発プロセス、運用方法を適切に理解できるように、その技術部門を十分に進歩させなければならない。
- 信頼性: DODのAIシステムには、明確に定義された使用ドメインが必要であり、そのようなシステムの安全性、セキュリティ、堅牢性は、その使用ドメイン内のライフサイクル全体に亘って、テストおよび保証されなければならない。
- 統治可能性: DODのAIシステムは、意図しない損害や混乱を検出・回避する能力を備えつつ、意図した機能を果たすように設計されなければならない。また、意図しない損害等の拡大やその他の動作を示すシステムを、人間または自動で解除もしくは停止されなければならない。
[DW編集局+JSTワシントン事務所]