[本文]
-
- 国・地域名:
- 米国
- 元記事の言語:
- 英語
- 公開機関:
- 国立標準技術研究所(NIST)
- 元記事公開日:
- 2024/11/20
- 抄訳記事公開日:
- 2025/01/15
-
商務省と国務省がAI安全性研究機関の国際ネットワークに参画
- 本文:
-
(2024年11月20日付、国立標準技術研究所(NIST)の標記発表の概要は以下のとおり)
本日、商務省(DOC)と国務省(DOS)は、AIの安全性に関する科学を発展させ、研究、ベストプラクティス、評価に関する協力枠組みである、AI安全性機関国際ネットワーク(International Network of AI Safety Institutes)の第1回会合を共催する。メンバーは、オーストラリア、カナダ、EU、フランス、日本、ケニア、韓国、シンガポール、英国、米国であり、初代議長を米国が務める。このネットワークを通じて、米国はAIの安全性に関する最も差し迫った課題に取り組み、イノベーションを妨げる可能性のあるグローバル・ガバナンスの不完全性を是正したいと考えている。
第1回会合では、加盟国政府の技術専門家が、非加盟国政府の主要なAI開発者、学者、市民社会リーダー、科学者らとともに、AIの安全性に関する主要な協力分野について議論し、技術的および科学的専門知識を提供する。具体的なトピックは、①合成コンテンツによるリスクの管理、②基盤モデルのテスト、③先進AIシステムのリスク評価である。
第1回会合の開催に先立ち、以下のような共同ミッションを宣言した。
① AI安全研究機関国際ネットワークは、国際的な技術的専門知識を結集するためのプラットフォームを提供する。4つの優先課題に協力して取り組み、2025年2月以降にパリで開催されるAIアクションサミットに向けた継続的な取り組みの優先事項とロードマップについても話し合う。
② 合成コンテンツのリスクを軽減するため、デジタルコンテンツ透明化技術の安全性と堅牢性の理解、新規透明化手法の探求、有害合成コンテンツの生成と配布を防止するためのセーフガード開発等の研究課題に総額1,100万ドル超を拠出する。
③ 多言語AI試験の取組みとして、米国、英国、シンガポールの技術専門家が主導する初の合同試験演習が終了し、方法論の違いやモデルの最適化技術が評価結果に与える影響など、国際的なテストにおける検討事項が提起された。
④ リスクアセスメントのための共有の科学的基盤を確立することに合意した。第1回会合では、リスク評価への共有アプローチをどのように運用し、国際整合性と相互運用性を進めるためのロードマップを構築するかについて意見や洞察を求めた。
⑤ 米国AI安全研究所が主導する新たなタスクフォースを設立する。「国家安全保障のためのAIのリスクテスト(TRAINS:Testing Risks of AI for National Security)タスクフォース」は、DOC、国防総省(DOD)、エネルギー省(DOE)、国土安全保障省(DHS)に加え、国家安全保障局(NSA)、国立衛生研究所(NIH)の専門家を集め、国家安全保障上の懸念に対処し、AIイノベーションにおける米国のリーダーシップを強化する。
[DW編集局]