top of page

AIが「民意」を製造する時代――直接民主主義は救世主か、それとも暴走装置か


シリーズ: 論文渉猟


◆今回の論文:David Altman, "The AI Democracy Dilemma" (Journal of Democracy, 2026年1月)

  • 概要:生成AIが市民発議型の直接民主主義(イニシアチブや国民投票など)をどう変容させるかを分析した論考。AIは法案起草の自動化、マイクロターゲティングによる動員最適化、超個人化された説得を可能にし、直接民主主義のハードルを劇的に下げる。しかし同時に、熟議の空洞化、市民社会の弱体化、信頼の腐食を通じて、民主的正当性の基盤を損なうリスクがある。著者は「自動化された人民投票」という悪夢のシナリオと「熟議の拡張」という望ましい未来を対比させ、AIウォーターマーク、公益AI基盤、独立したアルゴリズム監査などの制度的ガードレールを提案している。



もし、AIがあなたの不安や怒りを正確に読み取り、それにぴったり合った政治メッセージを届けてきたら、どう感じるでしょうか。しかも、そのメッセージは隣人からの本音に見え、友人がシェアした体験談のように響く。でも実際には、すべてがアルゴリズムによって生成された「作り物」だとしたら。


直接民主主義は、市民が自ら法案を発議し、投票で決定できる制度として、民主主義の理想形のひとつとされてきました。しかし今、生成AIという強力なツールがこの制度を根本から変えようとしています。法案の起草、署名集め、世論形成——かつては専門家や市民団体が何年もかけて行っていた作業が、AIによって数日で完了してしまう。これは民主主義の進化なのか、それとも崩壊の序曲なのか。


チリの政治学者デイヴィッド・アルトマン教授は、この問いに正面から取り組んでいます。AIは直接民主主義を「より安く、より頻繁に、より効率的に」するが、同時にその正当性の基盤そのものを掘り崩す危険がある、と。富良野とPhronaの二人の会話を通して、この難題に迫ります。

 



2029年の悪夢——シナリオが示す危機


富良野:アルトマン教授の論文、冒頭から結構衝撃的なシナリオで始まるんですよね。2029年、ヨーロッパのある国で「#TakeBackOurCountry」というハッシュタグがSNSを席巻して、移民排斥の市民発議があっという間に成立してしまう、という。


Phrona:読んでいて、フィクションなのに妙にリアルで怖かったです。ポイントは、そのメッセージが広告っぽくないところですよね。隣人からの本音に見える、友人がシェアした体験談のように響く。でも全部AIが生成している。


富良野:そう、そこなんです。従来の政治広告って、受け手も「これは広告だな」とわかる。でもAIが生成するコンテンツは、心配しているお母さん、退役軍人、失業した工場労働者……それぞれの地域の方言で完璧に話す。


Phrona:しかもそれが何千もの並行したオンラインフォーラムで同時に展開される。反対派はそれを「ヒドラ」、つまり首を切っても次々生えてくる怪物に喩えていますね。


富良野:で、投票日には58%の賛成で可決。制度としては完璧に民主的なんですよ。市民が発議して、市民が投票した。でも結果は憲法危機と国際的な非難、暴力的な抗議活動。


Phrona:「安全弁」として機能するはずの直接民主主義が、爆発を引き起こした。パラドックスですよね。でも私、このシナリオを読んで思ったのは、AIがなくてもこういうことは起きうるんじゃないか、ということで。


富良野:ああ、それは鋭いですね。実際、2016年のBrexit投票とか、2022年のチリの憲法改正国民投票でも、似たような情報操作の問題はあった。


Phrona:そうなんです。でもアルトマン教授が言っているのは、AIがそれを「加速」するということ。人間の活動家が何年もかけてやることを、AIは数日でやってしまう。質的な変化というより、速度と規模の変化が閾値を超える、という話かもしれません。



三つの障壁の崩壊——専門性、動員、説得


富良野:論文の核心部分に入りましょうか。アルトマン教授は、直接民主主義には歴史的に三つの障壁があったと言っています。専門性の障壁、動員の障壁、説得の障壁。AIはこの三つすべてを崩壊させる。


Phrona:専門性の障壁というのは、要するに法案を書くのが難しい、ということですね。憲法や既存法との整合性を取りながら、司法審査に耐えうる条文を作る。これまでは弁護士チームが必要だった。


富良野:それが今や、大規模言語モデルに「X国で年間の亡命申請を1万件に制限する市民発議を起草してください。憲法に適合し、必要な施行条項を含めてください」とプロンプトを打てば、数秒で出てくる。


Phrona:アルトマン教授はこれを「専門知識のフィルターが消えた」と表現していますね。エントリーバリアが、弁護士チームからプレミアムAIサービスの個人契約者へと下がった。


富良野:二つ目の動員の障壁も同様です。署名を集めるって、実はものすごく大変な作業なんですよ。何十万という検証済みの署名を、期限内に集めないといけない。


Phrona:それがマイクロターゲティングで一変する。有権者名簿、消費行動、SNSの活動をAIが分析して、最も賛同しそうな人、いや、最も説得しやすい人を特定する。


富良野:ボランティアの配置もリアルタイムで最適化される。どの地区の、何時に、どんな属性の住民にアプローチすべきか。すべてがデータドリブンになる。


Phrona:さらに不気味なのは、論文で「アストロターフィング・フィードバック・ループ」と呼ばれているもの。偽の熱狂的市民のプロフィールを何千も作って、署名運動の成功を演出する。その演出が本物の市民を引き寄せる。


富良野:三つ目が説得の障壁。これが一番深刻かもしれない。超個人化された説得、つまりハイパーパーソナライズド・パースエイジョンですね。


Phrona:年金を心配している退職者には「移民が社会保障制度の持続可能性を脅かしている」というメッセージ。若い環境活動家には「人口過剰が生態系を破壊している」という別の動画。リベラル派には「保守的な移民が女性やLGBTQの権利を脅かしている」という第三のコンテンツ。


富良野:同じイシューなのに、まったく異なるフレーミングで届けられる。しかも受け手は、他の人がどんなメッセージを受け取っているか知らない。


Phrona:共通の議論の場がなくなる、ということですよね。民主主義って、同じ情報をもとに議論して合意形成するものだと思っていたんですけど。


富良野:それがAI時代には、何百万もの私的な、アルゴリズムによる操作が並行して走る。「人民の意思」は形成されるのではなく、エンジニアリングされる。



正当性の危機——熟議・市民社会・信頼


Phrona:ここまでの話を聞いていると、AIは直接民主主義を「効率化」しているように見える。でもアルトマン教授は、その効率化こそが問題だと言っていますね。


富良野:そうなんです。彼の議論の核心は、直接民主主義が安全弁として機能するには条件がある、ということ。活発な市民社会、熟議できる公共圏、制度への信頼。AIはこの三つすべてを蝕む。


Phrona:熟議の話から行きましょうか。超個人化された説得は、共通のテキスト、共有された事実、一貫した公開討論を破壊する。みんなが同じ会話に参加しているのではなく、並行した情報の流れの中で別々に処理されている。


富良野:アルトマン教授は「deliberation(熟議)の対極としてのplebiscite(人民投票)」という対比を使っていますね。熟議は、異なる意見を持つ人々が議論を通じて合意に近づくプロセス。人民投票は、事前に形成された意見の集計にすぎない。


Phrona:AIは後者を促進するわけですね。しかも面白いのは、AIが複雑な法案を平易な言葉で要約してくれる機能も、実は問題だという指摘。


富良野:理解したつもりになる危険、ですね。法律のニュアンスやトレードオフ、意図せざる結果を把握しないまま、わかりやすい要約だけで投票してしまう。アクセシビリティと理解を混同する。


Phrona:次に市民社会の話。労働組合、NGO、地域団体……これまで市民の声を集約して政策に影響を与えてきた中間団体が、AIに太刀打ちできなくなる。


富良野:組織が会議を設定して記者会見を準備している間に、AIは法案を起草し、大陸規模の偽情報キャンペーンを展開し、100万のパーソナライズされたメッセージを生成している。人間のペースとAIのペースが全く違う。


Phrona:しかもAIは「人民」をエンパワーするだけでなく、「人民のふり」をすることにも長けている。市民的捕獲(civic capture)という言葉が使われていました。


富良野:最後が信頼の問題。キャンペーンの重要な議論がAIから発せられたとき、誰が責任を負うのか。ブラックボックスのアルゴリズムが書いた法案の意図を、どう議論すればいいのか。


Phrona:たとえ投票が技術的に自由で公正だったとしても、勝った側が高度なAI説得マシンを使っていたという事実が、結果の正当性に永遠に影を落とす。


富良野:認識論的不透明性(epistemic opacity)とアルトマン教授は呼んでいます。何が本物で何が作られたものか、もはや区別できなくなる状態。



二つの未来——永続的人民投票か、熟議の拡張か


富良野:論文の後半で、アルトマン教授は二つのシナリオを対比していますね。「永続的人民投票」という悪夢と、「熟議の拡張」という希望。


Phrona:永続的人民投票というのは、AIが絶え間なく市民発議を可能にして、あらゆる問題が即座に国民投票にかけられる世界。一見、究極の民主主義に見えますけど。


富良野:でも実態は、熟議なき集計、正当性なき効率性、安定化ではなく不安定化。レヴィツキーとジブラットの「民主主義は明かりがついたまま死ぬ」という警告を、アルトマン教授は引用しています。


Phrona:形式的な権力の体系的使用を通じて、内部から崩壊する。形は民主主義なのに、実質が空洞化している。


富良野:対照的に「熟議の拡張」は、AIを使って嗜好を素早く集計するのではなく、公共的推論の質を高めることを目指す。


Phrona:具体的にはどんなイメージなんでしょう。


富良野:AIが異なる視点を公平に提示したり、複雑な政策のトレードオフを可視化したり、多様な声が議論に参加できるよう支援したり。人間の判断を置き換えるのではなく、拡張する。


Phrona:でもそれって、技術的に可能でも、政治的・経済的インセンティブと一致しない気がします。説得の最適化の方が、バランスの取れた情報提供より「効果的」ですから。


富良野:そこがまさに問題で、だからこそ制度的なガードレールが必要だ、というのがアルトマン教授の主張なんです。



ガードレールの設計——ウォーターマーク、冷却期間、責任


Phrona:具体的なガードレールの提案を見ていきましょうか。まず、AIウォーターマークの義務化。


富良野:AIが生成した政治コンテンツには、機械で読み取れる透かしを入れることを法的に義務づける。SNSやニュースアグリゲーターは、そのコンテンツに「合成生成」というラベルを目立つように表示しないといけない。


Phrona:食品の栄養表示のようなものですね。市民がフォレンジックの専門家にならなくても、情報の出所がすぐわかる。


富良野:ただ、アルトマン教授自身も認めているように、これは万能薬じゃない。新しいAIモデルは既にウォーターマークを消去したり改変したりできる。単一の防御線ではなく、多層的なセーフガードが必要。


Phrona:冷却期間の導入も面白いですね。市民発議が投票資格を得てから、実際の投票までに熟議のための緩衝期間を法的に義務づける。


富良野:AIによるバイラルな盛り上がりに対抗するため、時間的な余裕を作る。反対意見が出てきたり、冷静な分析が広まったりする余地を確保する。


Phrona:カタールの2024年の憲法改正国民投票が反例として挙げられていました。発表から投票まで数週間しかなく、実質的な熟議期間がなかった。


富良野:アストロターフィングに対する厳格責任の導入も重要ですね。AIを使った大規模な偽の草の根キャンペーンを、重大な選挙違反として扱う。資金提供者や展開者に厳しい制裁を科す。


Phrona:でも法律の制定と技術の進歩のスピードが違いすぎる、という問題がありますよね。チリの1993年のサイバー犯罪法が2022年にやっと更新された例が挙げられていました。それでもAI操作には対応していない。


富良野:だから立法だけでなく、インフラ面でのアプローチも必要なんです。



公益AIと市民社会の「武装」


富良野:アルトマン教授の提案で特に興味深いのは、「市民社会のための公益AI武器庫」という発想です。


Phrona:NGOやジャーナリストが自力で戦うことを期待するのではなく、公的資金や独立した支援によってAIツールを提供する。


富良野:具体的には、ワンクリックでファクトチェックできるAPI、つまり報道機関や市民団体が主張や画像やバイラルコンテンツの真正性を即座に検証できるツール。それから、投票案件の賛否両論と財政的影響を平易な言葉で説明する自動立法分析。


Phrona:これって、AIを「武器」から「盾」に転換するイメージですね。攻撃側だけでなく、防御側にもAIを使えるようにする。


富良野:プラットフォーム側の設計変更も提案されています。「この投票案件に関する主張は未検証です。シェアする前に、双方の議論の要約を見ますか?」というポップアップを出すとか。


Phrona:認知的な「バンプ」を設計に組み込む。ユーザーに重い負担をかけずに、反射的な行動を止める。


富良野:それから独立した「アルゴリズム・オンブズマン」の設置。政治キャンペーンや公共行政で使われるAIシステムを監査する権限を持った公的機関。選挙委員会のデジタル版のようなもの。


Phrona:全体として見ると、個人のメディアリテラシーに頼るのではなく、環境そのものを設計し直す発想ですね。


富良野:アルトマン教授の言葉を借りれば、「システム的・技術駆動型の問題には、個人的・アナログな解決策では対応できない」。市民にメディアリテラシーを説教するのではなく、真実が勝つ機会を持てるデジタル環境を構築する。



残された問い——民主主義の「人間的核心」とは


Phrona:最後のセクション、アルトマン教授は「民主主義の人間的核心を取り戻す」と言っていますよね。でも私、ここが一番難しいところだと思うんです。


富良野:どういう意味ですか。


Phrona:制度的なガードレールを設計することはできる。でも、その背後にある「なぜ民主主義が価値あるものなのか」という問いに対する答えが共有されていないと、ガードレールも形骸化するんじゃないかって。


富良野:ああ、それはとても本質的な問いですね。効率性だけなら、テクノクラートが最適な政策を決定すればいい。でも民主主義が大事にしているのは、効率性じゃなくて自己統治のプロセスそのもの。


Phrona:自分たちのことは自分たちで決める、という経験の価値。でもその経験が、AIによって媒介され、操作され、最適化されたとき、それはまだ「自己統治」と呼べるのか。


富良野:アルトマン教授は論文の最後で、政治的ニヒリズムから健全な懐疑主義へのマインドセットの転換が必要だと言っています。すべてを疑って何も信じないのではなく、検証可能な方法で疑う。


Phrona:「これは誰が出したのか」「これは合成か」「中立的な情報源は何と言っているか」。麻痺する不信ではなく、管理可能な検証の実践。


富良野:でも僕が気になるのは、そもそもなぜ人々がAIの説得に乗りやすいのか、という点です。それは技術の問題だけじゃなくて、既存の不満や不安が土壌としてあるから。


Phrona:冒頭のシナリオでも、経済の停滞と移民への不安というreal grievance(本当の不満)があって、AIはそれを「発見して利用した」わけですよね。


富良野:AIのガードレールを作っても、その不満自体に対処しないと、別の形で噴出するかもしれない。


Phrona:そこはアルトマン教授の議論の射程外かもしれませんね。彼は制度設計の専門家であって、経済政策や社会統合の専門家ではない。


富良野:でもだからこそ、この論文は出発点であって終着点じゃない。AIと民主主義の関係を考えるための枠組みを提供している。具体的な処方箋は、社会ごとの文脈で考えないといけない。


Phrona:最後にアルトマン教授が言っていることは、実はとてもシンプルですよね。「テクノロジーはこれらのジレンマを解決しない。その緊急性を増幅するだけだ」。


富良野:だから私たちは、人工知能の力を、集団的自己統治という独自に人間的な能力を再確認し強化するために使わなければならない。民主主義を救うのも滅ぼすのもアルゴリズムではなく、それをどう統治するか私たちが決めること。


Phrona:その「私たち」がまさに、AIによって分断されたり、操作されたりしている当の主体なわけで……堂々巡りになりますけど、でもその堂々巡りに自覚的であること自体が、たぶん第一歩なんでしょうね。



 

ポイント整理


  • AIは直接民主主義の「三つの障壁」を崩壊させる

    • ①法案起草に必要な専門知識、②署名集めのロジスティクス、③世論形成のための説得。

    • かつて数年かかった作業が数日で完了し、参入障壁が弁護士チームから個人のAI契約者へと下がる。

  • 効率化と正当性のジレンマ

    • AIによる加速は、直接民主主義をより安く・頻繁に・効率的にするが、同時に熟議の基盤(共通の議論の場、市民社会の媒介機能、制度への信頼)を蝕む。形式的には民主的な手続きが、実質的な正当性を失うリスク。

  • 超個人化された説得の危険

    • 同じ政策イシューについて、有権者ごとに異なるフレーミングのメッセージが届く。年金への不安、環境問題、文化的価値観など、それぞれの脆弱性を突くコンテンツが生成され、共通の公開討論が消滅する。

  • 市民社会の非対称性

    • 従来の市民団体は人間のペースで動く(会議の設定、合意形成、記者会見の準備)。AIは瞬時に法案を起草し、大陸規模のキャンペーンを展開できる。この速度差は質的な不均衡を生む。

  • 「永続的人民投票」vs「熟議の拡張」

    • 二つの未来シナリオの対比。前者は熟議なき集計、効率性なき正当性、不安定化する「安全弁」。後者はAIを使って嗜好を素早く集計するのではなく、公共的推論の質を高める方向。

  • 多層的なガードレールの必要性

    • ①AI生成コンテンツへのウォーターマーク義務化、②発議から投票までの冷却期間、③アストロターフィングへの厳格責任、④公益AIツールの市民社会への提供、⑤独立したアルゴリズム監査機関の設置。

  • 個人のメディアリテラシーへの過度な依存の限界

    • 「市民に説教する」のではなく、真実が勝つ機会を持てるデジタル環境を構築する発想へ。検証の負担を個人から制度・技術インフラへ移転する。

  • 法制度と技術進歩のスピード差

    • 立法は通常、技術革新に比べて非常に遅い。チリのサイバー犯罪法(1993年制定、2022年更新)の例が示すように、法は常に「昨日の技術」を規制している状態。

  • 信頼と認識論的不透明性

    • AIが生成した議論や法案について、誰が責任を負い、その意図をどう議論するかが不明確になる。技術的に自由で公正な投票でも、AI説得マシンの介在が結果の正当性に疑念を投げかける。

  • 根本的な問い

    • AIのガードレール以前に、人々の不満や不安という「土壌」がある。直接民主主義を不安定化させるのはAIだけでなく、AIが利用可能な社会的亀裂の存在。制度設計と社会政策の両方からのアプローチが必要。



キーワード解説


市民発議型直接民主主義(citizen-initiated mechanisms of direct democracy)】

市民が一定数の署名を集めることで法案や憲法改正を提案し、国民投票にかけることができる制度。スイスのイニシアチブなどが代表例。


安全弁(safety valve)】

選挙と選挙の間に市民の不満を表出させ、政策に影響を与える正式なチャネルを提供することで、社会的緊張が暴動や民主主義の後退として爆発するのを防ぐ機能。


マイクロターゲティング(microtargeting)】

有権者を細かくセグメント化し、それぞれに最適化されたメッセージを送る選挙戦術。AIにより精度と規模が飛躍的に向上。


ハイパーパーソナライズド・パースエイジョン(hyper-personalized persuasion)】

個々の有権者の価値観、不安、潜在的バイアスに合わせて、AIがカスタマイズされた説得コンテンツを生成すること。


アストロターフィング(astroturfing)】

草の根運動に見せかけた、実際には組織的に仕掛けられた偽の市民運動。AIにより合成プロフィールや投稿の大量生成が可能に。


AIスウォーミング(AI swarming)】

協調して動く合成エージェントの群れが、草の根の合意をシミュレートし、大規模に世論を操作すること。


ディープフェイク(deepfake)】

AIを使って生成された、実在の人物が言っていないことを言っているように見せる偽の音声・動画。


認識論的不透明性(epistemic opacity)】

何が本物で何が合成か、誰が情報の背後にいるのかが不明確になり、知識の検証が困難になる状態。


熟議(deliberation)】

異なる意見を持つ人々が、証拠を検討し、議論を交わし、集団として理性的に判断に至るプロセス。単なる嗜好の集計とは異なる。


人民投票主義(plebiscitarianism)】

熟議なしに、即座の人民投票を通じて政策を決定しようとする傾向。民主主義の制度的カウンターバランスを迂回するリスク。


ウォーターマーク(watermarking)】

AI生成コンテンツに機械可読の署名を埋め込み、その出所を追跡可能にする技術。


冷却期間(cooling-off period)】

市民発議が投票資格を得てから実際の投票までの間に設けられる、熟議のための法定の緩衝期間。


公益AI(public-interest AI)】

市民社会、ジャーナリズム、ファクトチェックを支援するために、公的資金や独立した支援によって開発・提供されるAIツール。


アルゴリズム・オンブズマン(algorithmic ombudsman)】

政治キャンペーンや公共行政で使用されるAIシステムを監査する権限を持つ、独立した公的機関。


ダークフォレスト(dark forest)】

情報生態系が合成コンテンツで飽和し、真正性を証明することが不可能になった状態を表すメタファー。



本稿は近日中にnoteにも掲載予定です。
ご関心を持っていただけましたら、note上でご感想などお聞かせいただけると幸いです。
bottom of page