[本文]
-
- 国・地域名:
- ドイツ
- 元記事の言語:
- ドイツ語
- 公開機関:
- 国立科学アカデミー・レオポルディーナ
- 元記事公開日:
- 2024/10/17
- 抄訳記事公開日:
- 2024/11/19
-
生成AIの責任ある開発と利用に関するレオポルディーナのディカッションペーパー
- 本文:
-
(2024年10月17日付、国立科学アカデミー・レオポルディーナ(Leopoldina)の標記発表の概要は以下のとおり)
Chat GPTやDall-Eのようなプログラムが一般的に使用されるようになってから、生成人工知能(AI)のリスクとチャンスについて議論されることが多くなってきた。AIは文章、画像、映像の作成能力により日常生活の大きな助けとなっているが、ディープフェイクやプロパガンダに悪用されることもある。
加えて、すべての生成AIは学習データと事前に設定された開発目標の反映である。これらは制度によって、あるいは規則によって制御することはできない。しかし、生成AIの非透明性や非客観性(バイアス)に対抗するアプローチも現れてきた。本日、公表されたディカッションペーパーは、こうしたアプローチに対する過剰な期待に警告している。「生成AI – 満ち溢れた幸福感と単純な解決策を越えて」と題する同文書は、生成AIの開発と利用における可能性と挑戦について現実的な視線を投げかけている。
著者らは、生成AIの透明性を向上させ、歪みを見つけ、最小限に抑えるための技術やツールに対して冷静かつバランスの取れたアプローチを取ることを提唱している。一例としてバイアスを取り上げ、積極的な対応策を取らなければAIシステムはデータベースにおける社会的文化的状況と、そこに内在する価値観と不平等を反映する。プログラムにおけるこのようなバイアスに積極的に対応すべきか、対応するとしたらどのようにすべきかは簡単な問題ではないと述べている。これには、技術的・数学的専門知識だけでなく、政治的・倫理的専門知識も必要と考えており、開発者だけに任せてはいけないとしている。
また、利用者がAIとコミュニケートしていることに気づかない場合や、AIに何ができて何ができないかを知らない場合に起こる生成AIに関連する様々な欺瞞の可能性も指摘している。利用者は、意識や理解という人間の能力をAIも持っていると考えがちである。他にも、ディスカッションペーパーはデータ保護についても論じている。生成AIの成功の一部は、利用者の個人情報を収集・利用していることにある。利用者のデータが共有され利用されることについての利用者の主権がどのように保護されるかについての説得力のある考えはまだだされていない。
本文書は、ハンブルグ大学情報技術倫理専攻の哲学者シモン教授(Prof. Judith Simon)、ケルン大学デジタル化法教授で法学者のシュピーカー教授(Prof. Indra Spiecker)、チュービンゲン大学機械学習専攻で情報科学者でありレオポルディーナ会員でもあるフォン・ルックスブルク教授(Prof. Ulrike von Luxburg)の3名により作成された。3名ともレオポルディーナのデジタル化をテーマとしたグループの委員である。
「レオポルディーナ・ディスカッション」シリーズは科学者からの寄稿によるもので、アカデミーとしては、同シリーズを基に、科学者が柔軟で自由な思考で議論をすること、提言することを期待している。
[DW編集局]