top of page

AIが民主主義の調停者になる?──「ハーバーマス・マシン」が示す合意形成の新しい可能性

更新日:6月30日

シリーズ: 知新察来


◆今回のピックアップ記事:Nicola Davis "AI mediation tool may help reduce culture war rifts, say researchers" (The Guardian, 2024年10月17日)

Google DeepMindが開発した「ハーバーマス・マシン」という名前のAIシステムが、話題を呼んでいます。複数の人々の意見を集約し、みんなが納得できる合意文を生成するというこのツール。実験では、人間のまとめよりもAIが作った文章の方が「公平で明確」だと評価されたそうです。


でも、ちょっと待って。対立や意見の違いって、本当にAIで「解決」すべきものなのでしょうか。少数派の声は、どこまで拾われるのでしょうか。そもそも「中立的な合意」なんて、本当に存在するのでしょうか。


今回は、富良野とPhronaが、このハーバーマス・マシンについて語り合います。技術の可能性と限界、そして民主主義の本質について、二人の対話から見えてくるものとは。



合意生成AIという野心的な試み


富良野:Phronaさん、Google DeepMindの「ハーバーマス・マシン」ってご存知ですか?複数の人の意見を集めて、みんなが納得できる合意文を作るAIなんですけど。


Phrona:ええ、聞きました。ドイツの哲学者ハーバーマスの名前を冠しているんですよね。彼の「理想的な対話状況」を技術で実現しようという野心的な試みだと。


富良野:実験結果がなかなか興味深くて。439人の参加者のうち、56%がAIの作った合意文の方が人間のまとめより優れていると評価したそうです。明確さ、公平性、情報量の点で高評価だったとか。


Phrona:へえ、過半数がAIを支持したんですね。でも私、ちょっと引っかかるんです。合意って、文章の質だけで測れるものなのかしら?


富良野:確かに。技術的には70億パラメータの生成モデルと14億パラメータの報酬モデルを使って、参加者の意見を統合し、どの文案が最も支持されるかを予測するんです。かなり精緻な仕組みですよ。


Phrona:精緻な仕組み...でも、人と人が顔を合わせて、時には感情的になりながら、でも最後には何かを共有する。そういうプロセスの重みって、AIには分からないんじゃないかな。


少数派の声はどこへ消えるのか


富良野:実は、批判も結構あるんです。UCLの紛争解決の専門家メラニー・ガーソンさんが指摘しているんですが、少数派があまりに小さいと、グループの声明に影響を与えられない可能性がある。でも、その少数派こそが結果に最も影響を受けるかもしれないって。


Phrona:あ、それ重要ですね。私たちが普段「ノイズ」として聞き流してしまうような声の中に、実は大切な何かが潜んでいることって、ありますもの。



富良野:政治学者のシャンタル・ムフなら、きっとこう言うでしょうね。「対立こそが民主主義の活力源だ」って。彼女の理論では、意見の衝突は避けるべきものじゃなくて、むしろ必要なものなんです。


Phrona:ムフさんの言葉、響きますね。AIが作る「きれいな合意」って、もしかしたら対立を覆い隠してしまうだけかも。本当は解決していないのに、解決したふりをしてしまう...



富良野:そうなんです。例えば、AIが「これは極端な意見だから除外」と判断する瞬間、そこには既に政治的な選別が働いている。何を「まとも」とみなすかという基準自体が、実は権力の問題なんですよ。



Phrona:突飛に聞こえる意見でも、その人にとっては切実な叫びかもしれないのに。言葉にうまくできない人の思いは、AIにとってはただの「外れ値」になってしまうんでしょうか。


中立性という幻想


富良野:メアリー・ハリントンという評論家が面白い批判をしていまして。AIの中立性なんて幻想だ、結局は設計者の価値観が埋め込まれているだけだ、と。


Phrona:確かに...中立って、誰にとっての中立なんでしょうね。私、思うんですけど、本当に中立な立場なんてあるのかしら?


富良野:僕もそう思います。報酬モデルが「これが良い合意だ」と判断する基準は、誰が決めたんでしょう?そこには必ず、ある種の価値判断が入り込んでいる。


Phrona:それに、感情の問題もありますよね。怒りや悲しみ、喜びや希望...対話の中で生まれるこういう感情って、実は合意形成にとってすごく大事じゃないですか?ガーソンさんも言ってるけど、ハーバーマス・マシンは参加者が自分の感情を説明する機会を提供しないから、異なる意見を持つ人への共感が育たないって。


富良野:ハーバーマス自身は理性的な討議を重視しましたけど、現実の対話では感情抜きには語れませんからね。AIは論理的な整合性は保てても、感情の機微は理解できない。


Phrona:相手の表情を見て、声のトーンを聞いて、「ああ、この人は本当はこう思っているんだな」って察する。そういう、言葉にならないコミュニケーションの豊かさが、AIには見えないんですよね。


民主主義の筋肉が衰える?


富良野:もう一つ、興味深い批判があります。AIに合意形成を任せることで、市民の対話能力が衰えるんじゃないか、という懸念です。


Phrona:ああ、それは考えさせられますね。筋肉と同じで、使わないと衰えちゃう...


富良野:まさに「民主主義の筋肉」という表現が使われていました。面倒でも、時間がかかっても、自分たちで話し合って決める。その経験自体に価値があるんじゃないか、と。


Phrona:便利なツールに頼りすぎると、自分で考えたり、相手の立場に立ったりする力が弱くなりそう。効率だけを追求したら、大切なものを失ってしまうかもしれませんね。


富良野:実験の中で興味深いのは、参加者が必ずしも多数派に流されるわけじゃないって点です。研究チームも強調してますが、みんなが中立的な立場に移るとか、多数派の意見に乗り換えるとかじゃない。それぞれの立場を保ちながら、でも共通点を見つけていく。


Phrona:それはちょっと希望が持てますね。でも、ガーソンさんが言うように、調停って単に合意を見つけることだけじゃないんですよね。継続的な関係の文脈では、行動を教えることも大切だって。


富良野:そうなんです。オックスフォード大学のクリス・サマーフィールド教授は、このツールを使って英国の政治リーダーが国民の本当の考えをよりよく理解できるようになればいいと言っています。でも、技術の使い方次第で、良くも悪くもなる。


Phrona:市民集会のような場では、コストや規模の制約があるから、AIが役立つ場面もあるでしょうね。でも、文脈が大事。何のために使うのか、どんな価値を提供するのか、常に問い続ける必要がありそう。


新しい抵抗の形


富良野:実は、AIによる合意形成が広まると、新しい形の政治的抵抗も生まれるかもしれません。圧縮されそうな少数派は、より創造的な方法で声を上げるようになる。


Phrona:面白い視点ですね。抑圧があれば、必ず抵抗も生まれる...


富良野:政治的起業家精神とでも言いましょうか。AIに認識されない声を、別の形で表現し直す。SNSで拡散したり、アートで表現したり、新しいコミュニティを作ったり。


Phrona:そう考えると、AIの登場は必ずしも対話の終わりじゃないのかも。むしろ、私たちに「本当の対話って何だろう」って問いかけているのかもしれませんね。


富良野:ええ。AIが示す「効率的な合意」と、人間が紡ぐ「生きた対話」。その間で揺れ動きながら、民主主義の新しい形を模索していく必要があるんでしょう。


Phrona:完璧な合意なんてないし、それでいいのかも。むしろ、ずっと話し続けること、聞き続けることが大事なのかもしれませんね。AIには、そのお手伝いをしてもらえばいい。



ポイント整理


  • ハーバーマス・マシンは、複数人の意見を集約し、AIが公平で明確な合意文を生成するシステムである

  • 実験では56%の参加者がAI生成の合意文を人間のまとめより優れていると評価した

  • 少数派の意見が埋もれる懸念や、感情・共感といった人間的要素が欠落する問題が指摘されている

  • AIの「中立性」は幻想であり、設計者の価値観が必然的に反映されるという批判がある

  • 合意形成をAIに委ねることで、市民の対話能力が衰退する可能性が懸念されている

  • AIによる圧縮に対抗する新しい形の政治的抵抗や創造的表現が生まれる可能性もある


キーワード解説


【ハーバーマス・マシン

Google DeepMindが開発した合意形成支援AI


【討議倫理】

ハーバーマスが提唱した、理性的対話による合意形成の理論


【アゴニスティック多元主義】

ムフが提唱する、対立を民主主義の本質とする考え方


【Schulze法】

複数の選択肢から最適なものを選ぶ投票アルゴリズム


【政治的起業家精神】

既存の枠組みに収まらない声を創造的に表現する活動


【報酬モデル】

AIが「良い合意」を判断するための評価システム


本稿は近日中にnoteにも掲載予定です。
ご関心を持っていただけましたら、note上でご感想などお聞かせいただけると幸いです。
bottom of page