[本文]
-
- 国・地域名:
- EU
- 元記事の言語:
- 英語
- 公開機関:
- 欧州委員会(EC)
- 元記事公開日:
- 2024/08/01
- 抄訳記事公開日:
- 2024/08/28
-
欧州人工知能法が発効
- 本文:
-
(2024年8月1日付、欧州委員会(EC)の標記発表の概要は以下のとおり)
人工知能(AI)に関する世界初の包括的な規制である欧州人工知能法(AI法)が本日施行された。AI法は、EUで開発・使用されるAIが信頼できるものであり、人々の基本的権利を守るための安全策が講じられていることを保証するよう設計されている。この規制には、EU内でAIの統一された域内市場を確立し、この技術の導入を促進し、イノベーションと投資を支援する環境を作り出す狙いがある。
AI法は、EUにおける製品の安全性とリスクベース・アプローチに基づいて、AIの将来を見据え、AIシステムのリスクを次のように定義している。
・最小限のリスク
AI対応の推奨システムやスパム・フィルタなど、ほとんどのAIシステムは、市民の権利と安全に対するリスクが最小限であるため、AI法に基づく義務を負わない。企業は自主的に追加の行動規範を採用することができる。・特定の透明性リスク
チャットボットのようなAIシステムでは、ユーザーがマシンと対話していることをユーザーに明確に開示する必要がある。ディープ・フェイクなど特定のAIの生成コンテンツにはその旨のラベルを付ける必要があり、生体認証の分類や感情認識システムが使用されている場合には、ユーザーに通知する必要がある。さらに、プロバイダーは、合成音声、ビデオ、テキスト、画像コンテンツが機械可読形式でマークされ、人工的に生成または操作されたものであることが検出できるようにシステムを設計する必要がある。・高いリスク
高いリスクと特定されるAIシステムは、リスク軽減システム、高品質のデータセット、アクティビティのログ記録、詳細な文書化、明確なユーザー情報、人間による監視、高レベルの堅牢性・精度・サイバーセキュリティ、などの厳格な要件に準拠する必要がある。規制サンドボックスは、責任あるイノベーションと規制に準拠したAIシステムの開発を促進する。このような高リスクのAIシステムには、たとえば、採用活動、融資を受ける資格があるかどうかの評価、自律型ロボットの運用、などに使用されるAIシステムが含まれる。・許容できないリスク
基本的人権に対する明らかな脅威とみなされるAIシステムは禁止される。これには、音声アシスタントを使用して未成年者の危険な行動を促すおもちゃ、政府や企業による「社会的スコアリング」を可能にするシステム、予測による警察活動の特定のアプリケーションなど、ユーザーの自由意志を回避するために人間の行動を操作するAIシステムまたはアプリケーションが含まれる。さらに、一部の生体認証システムの使用は禁止される。それには、職場で使用される感情認識システムや、人物を分類するためのシステム、そして公共の場での法執行を目的としたリアルタイムの遠隔生体認証識別システムなどである(例外は限定的)。このシステムを補完するため、AI法はいわゆる汎用AIモデル規則も導入している。
欧州委員会のAI局(AI Office)が、EUレベルでのAI法の主要な実行機関となるほか、汎用AIモデル規則の執行機関となる。3つの諮問機関が規則の実施を支援する。
[DW編集局]