[本文]
-
- 国・地域名:
- ドイツ
- 元記事の言語:
- ドイツ語
- 公開機関:
- マックスプランク協会(MPG)
- 元記事公開日:
- 2026/01/26
- 抄訳記事公開日:
- 2026/03/09
-
科学政策フォーラム、AIによる人工的コンセンサス形成の民主主義リスクを警告
- 本文:
-
(2026年1月26日付、マックスプランク協会(MPG)の標記発表の概要は以下のとおり)
科学政策フォーラムは、「悪意のある人工知能(AI)の群れ(Schwärme)」が、あたかも公共的合意が形成されたかのような印象を作り出し、民主主義を危うくする可能性があることと警告している。提示された課題は次のとおりである。
1. 民主主義に対する危険性:AIに制御された人格の群れが公共的コンセンサスの存在を装い、民主主義を脅かし得る。
2. もはや「コピーペースト型ボット」ではない:AI人格はソーシャルメディア上で実在の利用者を高度に模倣し得る。
3. 人工的コンセンサスの危険:広範な合意が存在するとの幻想が、個々の主張に争いがあっても、意見や規範を変容させ得る。
4. 推奨される対策:有効な対策は、統計的にあり得ない協調行動を検出し、AI影響の監視と証拠共有を進めるとともに、不真正な相互作用の収益化を制限し責任範囲を拡大することで誘因を低減することに集中すべきである。同フォーラムの新論文は、影響活動の新たな段階は従来の「コピーペースト型ボット」ではなく、協調的コミュニティのように振る舞うAI制御人格の編隊として現れる可能性があると指摘する。これらはリアルタイムで適応し、集団に浸透し、大規模に公共的合意の外観を創出し得る。大規模言語モデル(LLM)とマルチエージェント・システムの融合は、「悪意のあるAI」を可能にし、真正らしく社会システムダイナミクスを模倣しつつ、社会的証明および社会的コセンサスを偽造することで民主的言論を脅かし得ると論じる。リスクの核心は偽偽内容そのものだけでなく、「皆がそう言っている」との人工的合意の創出にあるとする。
悪意あるAIとは、持続的なアイデンティティと記憶を備え、共通目標に沿って協調し、関与状況や人間の反応に応じて語調や内容を変化させつつ、最小限の監督下でプラットフォーム横断的に展開可能なAIエージェントのネットワークを指す。
「COVID-19期の調査では、誤情報はウィルス同様に国境を越えて拡散した。人工的コンセンサスを生成し得る悪意あるAIは、この脅威をさらに危険な段階へと押し上げかねない」と、ボーフム所在のマックスプランク安全・プライバシー研究所のチャ所長(Meeyoung Cha)は述べている。
[DW編集局]