[本文]
-
- 国・地域名:
- EU
- 元記事の言語:
- 英語
- 公開機関:
- 欧州委員会(EC)
- 元記事公開日:
- 2023/12/09
- 抄訳記事公開日:
- 2024/01/22
-
AI法案に関する政治的合意
Commission welcomes political agreement on Artificial Intelligence Act
- 本文:
-
(2023年12月9日付、欧州委員会の標記発表の概要は以下のとおり)
2021年4月に欧州委員会が提案した包括的な規制枠組み規則案(AI法案)に関して、欧州議会と理事会の間でこのほど政治的合意に達した。
■ 信頼される人工知能(Trustworthy AI)に対する欧州のアプローチ
新たな規則は、将来にわたって有効なAIの定義に基づき、すべての加盟国に対してEU域内一律に適用される。次のようなリスクベースのアプローチである。
・最小限のリスク
AIシステムの大部分は、最小限のリスクのカテゴリーに分類される。AI対応レコメンダ システムやスパムフィルタなどのリスクを最小限に抑えたアプリケーションは、市民の権利や安全に対するリスクが最小かまったくないため、フリーパスで制限がないことの恩恵を受ける。ただし、企業は自発的に、これらのAIシステムに対する追加の行動規範を設けることができる。・高いリスク
比較的高リスクとして特定されたAIシステムは、リスク軽減システム、高品質のデータセット、アクティビティのログ記録ロギング、詳細な文書化、明確なユーザー情報、人間による監視、高レベルの堅牢性、精度、サイバーセキュリティなど、厳格な要件に準拠する必要がある。規制サンドボックス(仮想環境)は、責任あるイノベーションと法律に準拠したAIシステムの開発を促進する。
このような高リスクAIシステムの例としては、水道、ガス、電力分野の重要インフラ、医療機器、教育機関へのアクセスや人材の採用を決定するシステム、法執行、国境管理、司法行政、民主主義プロセスの分野で使用される特定のシステム、などがある。さらに、生体認証、分類、感情認識システムも高リスクであると考えられている。・許容できないリスク
人々の基本的権利に対する明らかな脅威とみなされるAIシステムは禁止される。未成年者の危険な行動を奨励する音声アシストを使用する玩具や、政府や企業による「社会的スコアリング(social scoring)」を可能にするシステム、予測による警察活動の特定のアプリケーションなど、ユーザーの自由意志を回避するために人間の行動を操作するAIシステムやアプリケーションが含まれる。さらに、職場で使用される感情認識システムや、公共のアクセス可能な空間において法執行目的で人を分類するりリアルタイムの遠隔生体認証を行うシステムなど、一部の生体認証システムの使用も禁止される(一部例外を除く)。・特定の透明性リスク
チャットボットなどのAIシステムを採用する場合、ユーザーは自分がマシンと対話していることを認識する必要がある。ディープフェイクやその他のAI生成コンテンツには、ラベルを付ける必要があり、生体認証の分類や感情認識システムが使用されている場合には、ユーザーに通知する必要がある。さらに、プロバイダは、合成音声、ビデオ、テキスト、画像のコンテンツが機械可読形式でマークされ、人工的に生成または操作されたものとして検出できるようにシステムを設計する必要がある。■ 罰金
規則に従わない企業には罰金が科せられる。
■ 汎用AI
AI 法案では、バリュー チェーンに沿った透明性を確保するため、汎用AIモデル専用のルールが導入されている。
[DW編集局]