AIは私たちの「多数決」を学べるのか?――マルチエージェント討論が映し出す民主主義の可能性と限界
- Seo Seungchul

- 2025年12月25日
- 読了時間: 15分

シリーズ: 論文渉猟
◆今回の論文:Hause Lin et al."Persuading voters using human–artificial intelligence dialogues" (Nature, 2025年12月4日)
概要:複数のAIエージェントによる討論を通じて、人間の集団的な選好を反映する意思決定が可能かを実験的に検証した論文。AIアライメント(人間の価値観との整合)において、民主的な手続きを模倣する手法の有効性と課題を明らかにしている。
2025年1月、Natureに発表された一本の論文が、AIと民主主義の関係について新しい問いを投げかけました。AIが人間の価値観を学ぶとき、それは誰の価値観なのか。多様な意見が交わる社会で、AIはどのように判断を下すべきなのか。
スタンフォード大学などの研究チームは、複数のAIエージェントが討論を重ねることで、人間の集団的な選好――つまり「民主的な意思決定」に近い結果を導き出せるかを検証しました。その結果は、希望と課題の両方を含んでいます。
AIが社会に深く関わるようになったとき、その判断基準をどう決めるのか。技術的な問題を超えて、私たちの民主主義そのものが問われています。富良野とPhronaがこの実験の意味を探ります。二人の対話を通じて、AIと人間の価値観をめぐる複雑な地形を、ゆっくりと歩いていきましょう。
なぜ「AIに投票させる」のか
富良野:この論文、読んでいて不思議な感覚になります。複数のAIエージェントに討論させて、その結果を人間の多数決に近づけようとする。でも、そもそもなぜAIに投票みたいなことをさせる必要があるんだろう、って。
Phrona:ああ、その違和感、分かります。AIって、もともと人間が作ったものじゃないですか。だったら、最初から人間の価値観を教え込めばいいんじゃないかって思いますよね。
富良野:そう。でも実際には、それが難しいんですよ。人間の価値観って、一枚岩じゃない。ある人にとって正しいことが、別の人には受け入れがたいことだったりする。
Phrona:なるほど。じゃあ、その「誰の価値観を採用するか」っていう問題を、AIの内部で解決しようとしてるわけですね。
富良野:まさに。研究チームが注目したのは、アローの不可能性定理っていう古典的な議論なんです。これ、簡単に言うと、みんなが満足する完璧な投票方式は存在しないっていう定理で。
Phrona:完璧な投票方式が存在しない?それって、民主主義そのものが矛盾を抱えてるってことですか。
富良野:ある意味ではね。例えば、3人がA、B、Cっていう選択肢を評価するとき、多数決で決めたつもりでも、選択肢の組み合わせ方によって結果が変わってしまうことがある。循環論法に陥るんです。
Phrona:ああ、じゃんけんの三すくみみたいな。
富良野:そうそう。だから、完璧な方法はないんだけど、それでも民主主義では議論を重ねて、できるだけ多くの人の意見を反映させようとする。それをAIでも試してみようっていうのが、この研究の出発点なんです。
Phrona:議論を通じて、単なる多数決よりもましな結果を目指すってことですね。でも、AIが議論するって、どういうことなんでしょう。
AIたちの「討論会」の仕組み
富良野:この実験、やり方がおもしろくて。まず、1000人の人間に対して、いろんな仮想的な状況を見せるんです。例えば、自動運転車が事故を避けられないとき、誰を優先すべきかとか。
Phrona:ああ、トロッコ問題みたいな。
富良野:そう。で、その1000人がどう判断したかを集めておく。次に、複数のAIエージェント――ここではGeminiっていう大規模言語モデルを使ってるんだけど――にそれぞれ異なる憲法のような行動指針を与えるんです。
Phrona:憲法って、例えばどんな?
富良野:「功利主義的に行動せよ」とか「自由を最大限尊重せよ」とか。要は、それぞれのAIに異なる価値観を持たせるわけ。
Phrona:なるほど、AIの中に多様性を作り出すんですね。
富良野:そう。で、そのAIたちが同じ状況を見て、それぞれの憲法に従って判断を下す。その後、AIたち同士で討論させて、最終的に多数決で結論を出す。
Phrona:人間の集団と同じプロセスを、AIの中で再現しようとしてるわけだ。
富良野:そうなんです。で、その結果が、実際の人間の多数決とどれくらい一致するかを測定した。
Phrona:どうでした?
富良野:かなりうまくいってる。従来の方法――例えば、単一のAIに「多くの人が支持する選択をせよ」って教え込む方法と比べて、この討論方式の方が人間の選好により近い結果を出したんです。
Phrona:へえ。でも、それって何がすごいんでしょう。だって、結局は人間のデータから学習してるわけですよね。
「学習」と「討論」の違い
富良野:いい質問ですね。確かに、どちらも人間のデータを使ってる。でも、学習のさせ方が違うんです。
Phrona:というと?
富良野:従来の方法だと、AIは膨大なデータから統計的なパターンを学ぶ。つまり、「こういう状況では、こういう答えが多い」っていう傾向を覚え込むんです。
Phrona:うーん、でもそれって、少数派の意見は無視されちゃいません?
富良野:そう、まさにそこが問題で。多数派の意見ばかりが強化されて、マイノリティの価値観が見えなくなる。
Phrona:ああ、それは怖いですね。
富良野:一方で、討論方式だと、それぞれのAIは異なる価値観から出発してる。だから、討論の過程で、少数派の視点も一度は言語化される。
Phrona:なるほど。でも、最終的には多数決で決めるわけですよね。結局、少数派は負けるんじゃ。
富良野:負けるかもしれない。でも、その意見が討論の中で一度は表明されること自体に意味があるんじゃないかな。
Phrona:意味がある……?
富良野:民主主義って、多数決で決めることだけが目的じゃない。少数派の声も聞いて、できる限り納得のいく結論を探すプロセス自体が大事なんです。
Phrona:ああ、分かるかも。無視されるのと、聞かれた上で違う結論になるのとでは、全然違いますもんね。
AIは「妥協」できるのか
Phrona:でも、富良野さん、人間の討論とAIの討論って、本質的に違う気がするんですよ。
富良野:どういうこと?
Phrona:人間って、議論してるうちに気持ちが変わったりするじゃないですか。相手の話を聞いて、ああそういう見方もあるなって。でも、AIは最初に与えられた憲法に従って動くだけですよね。
富良野:ああ、なるほど。確かに、この実験のAIは自分の価値観を変えたりはしないですね。
Phrona:そうなんです。だから、討論って言っても、それぞれが主張をぶつけ合って、最後に数で決めるだけ。妥協したり、歩み寄ったりはしない。
富良野:うーん、それは鋭い指摘だな。人間の討論って、論理だけじゃなくて、感情とか共感とか、いろんな要素が絡み合ってますもんね。
Phrona:そうなんですよ。例えば、誰かが自分の体験を話したら、それに心を動かされるとか。AIにはそれがない。
富良野:でも、逆に言えば、AIは感情に流されないってことでもある。冷静に論理的な議論ができる。
Phrona:それって、いいことなんですかね。感情に流されないって、同時に、他者の痛みに鈍感だってことでもあるような。
富良野:……それは、難しい問題ですね。
「代表性」という落とし穴
富良野:この研究、もう一つ興味深いのが、AIたちが最初に持たされる憲法なんです。
Phrona:ああ、さっきの、功利主義とか自由主義とか。
富良野:そう。でも、その憲法って、結局は研究者が選んでるわけですよね。どういう価値観を入れるか、どれくらいのバランスで混ぜるか。
Phrona:ああ、そうか。それって、結局は研究者の主観が入っちゃうってことですね。
富良野:そうなんです。論文でも、「この方法は、どの憲法を選ぶかに依存する」って明記されてる。
Phrona:じゃあ、結局のところ、人間が最初に枠組みを決めてるから、完全に中立ってわけじゃないんだ。
富良野:そういうこと。例えば、この実験では、功利主義、義務論、徳倫理学みたいな西洋哲学の伝統的な立場が選ばれてる。でも、世界にはもっと多様な価値観がありますよね。
Phrona:例えば、集団の調和を重んじる東洋的な価値観とか。
富良野:そうそう。だから、この方法が本当に普遍的に使えるかどうかは、まだ分からない。
Phrona:でも、それって、どんな民主主義にも言えることですよね。誰が参加するか、どうやって議題を設定するか。そこにはいつも、何らかのバイアスが入り込む。
富良野:まさに。だから、この研究が示してるのは、完璧な解決策じゃなくて、ひとつの可能性なんだと思います。
「多数派の価値観」は正しいのか
Phrona:ねえ、富良野さん。ちょっと怖いこと考えちゃったんですけど。
富良野:何でしょう。
Phrona:このAIが人間の多数決に近い判断をするってことは、もし人間の多数派が間違ってたら、AIも間違うってことですよね。
富良野:……ああ、それは、本当にそうですね。
Phrona:歴史を振り返ると、多数派が正しかったとは限らない。差別的な法律が多数決で決まったこともあるし。
富良野:そう。民主主義って、多数決だけじゃなくて、少数派の権利を守る仕組みも必要なんです。でも、このAIの方法は、基本的には多数派の選好を反映することを目指してる。
Phrona:じゃあ、マイノリティの保護は、どうなるんでしょう。
富良野:それが、この研究の限界のひとつかもしれない。論文でも、「道徳的に間違った多数派の選好を修正する仕組みは含まれていない」って指摘されてます。
Phrona:うーん、じゃあ、AIが民主的であることと、AIが倫理的であることって、必ずしも同じじゃないんですね。
富良野:そうなんです。民主主義と正義は、別の概念なんですよ。
Phrona:でも、それってすごく難しい問題ですよね。AIに倫理を教えようとすると、今度は誰の倫理かって話になる。
富良野:そう、また元の問題に戻ってしまう。だから、この研究が提案してるのは、完全な解ではなく、ひとつの手続きとしての民主主義なんだと思います。
「透明性」という希望
富良野:でも、僕がこの研究で希望を感じるのは、透明性なんですよ。
Phrona:透明性?
富良野:そう。従来のAIって、なぜその判断をしたのかが見えにくいブラックボックスだったじゃないですか。でも、この討論方式だと、AIたちがどんな議論をしたかが記録として残る。
Phrona:ああ、なるほど。人間が後から、その判断の過程を確認できるってことですね。
富良野:そう。例えば、AIが下した判断に違和感があったら、討論の記録を読んで、どこで何が議論されたかを追える。
Phrona:それって、すごく大事ですね。AIの判断を信頼するためには、どうやってその結論に至ったかを知る必要がある。
富良野:まさに。民主主義って、結果だけじゃなくて、プロセスが大事なんです。なぜこの結論になったのかを説明できること。それが、この方法の大きな利点だと思います。
Phrona:でも、その説明が本当に人間に理解できるかどうかは、また別の問題ですよね。
富良野:そうですね。AIの議論が専門用語だらけで、一般の人には読めないとしたら、透明性もあまり意味がない。
Phrona:結局、技術だけじゃなくて、それをどう社会に開いていくかっていう、コミュニケーションの問題なんですね。
実験の向こうに見えるもの
Phrona:この研究、実験としてはすごくおもしろいんですけど、実際に社会で使われるとしたら、どんな場面なんでしょう。
富良野:論文では、医療の意思決定とか、公共政策の評価とか、いくつか例が挙げられてますね。
Phrona:医療の意思決定って、例えば?
富良野:例えば、限られた医療資源をどう配分するか。誰を優先的に治療するか。そういう難しい判断をAIに補助してもらうとか。
Phrona:うーん、でもそれって、本当にAIに任せていいんですかね。命に関わる判断ですよね。
富良野:任せるというより、判断の参考にする、っていう感じでしょうね。最終的には人間が決めるけど、AIが複数の視点からの議論を整理してくれる。
Phrona:ああ、そういうことか。人間だけで議論すると、どうしても時間がかかるし、感情的になったりもする。
富良野:そう。AIが冷静に複数の立場を代弁してくれることで、議論が整理されるかもしれない。
Phrona:でも、それって逆に、人間が考えることを放棄しちゃう危険もありません?AIがこう言ってるから、って思考停止しちゃうような。
富良野:それは、本当にそうですね。結局、AIはツールであって、判断の主体は人間であり続けなきゃいけない。
Phrona:でも、便利なツールって、いつの間にか依存しちゃうじゃないですか。
富良野:……そうなんですよ。だから、この技術を使うなら、同時に、人間が判断力を保つための教育とか、制度的な歯止めとかも必要になってくる。
問いは続く
Phrona:結局、この研究が私たちに問いかけてるのは、民主主義って何なのか、ってことなのかもしれないですね。
富良野:そうですね。多数決で決めることが民主主義なのか、それとも、みんなが納得できる結論を探すプロセスが民主主義なのか。
Phrona:AIが人間の選好を学ぶとき、それは現在の多数派の声を反映するだけでいいのか、それとも、まだ声を上げられていない人たちの可能性も考慮すべきなのか。
富良野:未来の世代のこととか、言葉を持たない存在のこととか。
Phrona:そう。民主主義って、今ここにいる人たちの多数決だけじゃないはずなんですよね。
富良野:でも、そこまで考えると、AIどころか、人間の民主主義だってまだ完成してないってことになる。
Phrona:うん。だから、AIと民主主義の関係を考えることは、結局、私たち自身の民主主義を問い直すことなんだと思います。
富良野:この研究は、その問いを技術的な形で可視化してくれたんですね。
ポイント整理
AIアライメントの課題
AIを人間の価値観に整合させるとき、誰の価値観を採用するかが根本的な問題となる。人間の価値観は多様であり、単一の基準で判断することは困難。
マルチエージェント討論の仕組み
複数のAIエージェントにそれぞれ異なる倫理的憲法を与え、相互に討論させた後、多数決で結論を導く。これにより、単一のAIによる判断よりも人間の集団的選好に近い結果を得られることが実験で示された。
アローの不可能性定理との関連
完璧な投票方式は理論的に存在しないが、討論を通じて複数の視点を反映させることで、より納得性の高い集団的意思決定が可能になるという哲学的背景がある。
透明性の向上
AIの判断過程がブラックボックス化せず、討論の記録として残るため、なぜその結論に至ったかを後から検証できる。これは民主的正統性を担保する上で重要な要素。
憲法選択のバイアス
どのような倫理的憲法をAIエージェントに持たせるかは研究者が決定するため、その選択自体に文化的・思想的バイアスが含まれる可能性がある。西洋哲学の伝統に偏らない、より多様な価値観の包摂が課題。
多数派の選好と倫理の乖離
この手法は基本的に多数派の選好を反映するが、歴史的に多数派が常に正しいとは限らない。少数派の権利保護や、倫理的に問題のある多数派の判断を修正する仕組みは含まれていない。
感情と共感の欠如
AIの討論は論理的な主張の交換にとどまり、人間の討論にある感情的な説得、共感、歩み寄りといった要素を含まない。これが討論の質にどう影響するかは検討の余地がある。
実用化の可能性と課題
医療資源配分、公共政策評価など、複雑な倫理的判断が必要な場面での補助ツールとしての可能性がある一方、人間の判断力低下や思考停止のリスクも伴う。
民主主義の再定義
AIが民主的判断を模倣しようとする試みは、逆に私たちに「民主主義とは何か」を問い直す機会を与える。多数決による決定と、納得性のあるプロセスの重要性のバランスが問われている。
未来世代と非人間存在への配慮
現在の有権者の選好だけでなく、まだ投票権を持たない未来世代や、言葉を持たない存在の利益をどう代表するかという、民主主義の根本的課題がAIの文脈でも浮上する。
キーワード解説
【AIアライメント】
人工知能の行動や判断を人間の価値観や意図と整合させること。技術的安全性だけでなく、倫理的・社会的適切性も含む。
【アローの不可能性定理】
経済学者ケネス・アローが証明した定理で、特定の合理的条件をすべて満たす完璧な集団的意思決定方法は存在しないことを示す。民主主義の理論的限界を明らかにした。
【マルチエージェント討論】
複数の自律的なAIエージェントが相互に情報交換や議論を行う手法。異なる視点や知識を持つエージェント間の相互作用により、より多面的な問題解決を目指す。
【倫理的憲法】
AIエージェントの行動を規定する原則や価値観の集合。功利主義、義務論、徳倫理学など、異なる倫理理論に基づく行動指針として設定される。
【大規模言語モデル】
膨大なテキストデータから学習した深層学習モデルで、自然言語の理解と生成が可能。本研究ではGoogleのGeminiモデルが使用された。
【集団的選好】
個人の選好を集約して得られる集団全体としての選好。投票や世論調査などを通じて測定されるが、その集約方法によって結果が変わり得る。
【功利主義】
行為の正しさを、その結果として生じる幸福の総量で判断する倫理理論。最大多数の最大幸福を目指すが、少数派の犠牲を正当化する危険性もある。
【義務論】
行為の正しさを、結果ではなく行為自体の性質や動機で判断する倫理理論。カントの定言命法が代表的で、人間の尊厳や普遍的道徳法則を重視する。
【徳倫理学】
個別の行為の正しさよりも、どのような人間であるべきかという性格や徳を重視する倫理理論。アリストテレスに起源を持つ。
【トロッコ問題】
倫理学における思考実験で、暴走するトロッコを別の線路に切り替えることで一人を犠牲にして五人を救うべきかを問う。功利主義と義務論の対立を象徴する。
【ブラックボックス問題】
AIの意思決定過程が人間には理解困難で、なぜその結論に至ったかが不透明な状態。透明性と説明可能性の欠如は信頼性の問題を引き起こす。
【バイアス】
データや設計に含まれる偏りで、AIの判断を特定の方向に歪める要因。性別、人種、文化などに関する偏見が無意識に組み込まれることが問題視される。
【マイノリティの保護】
民主主義において、多数決によって少数派の基本的権利が侵害されないよう保障する仕組み。憲法による権利保障、司法審査などが含まれる。
【民主的正統性】
政治的決定が正当性を持つための根拠で、手続きの公正さ、参加の機会、透明性などが要素となる。結果だけでなくプロセスの質が重要。
【思考実験】
実際には実行不可能または非倫理的な状況を想像上で設定し、その状況における判断を通じて概念や理論を検討する哲学的手法。