AIガバナンスは民主主義を損なうのか、それともAIを民主化するのか?
- Seo Seungchul

- 2025年12月18日
- 読了時間: 16分
更新日:2025年12月26日

シリーズ: 論文渉猟
◆今回の論文:Mehmet B. Unver "AI governance: Compromising democracy or democratising AI?" (SSRN, 2024年8月1日)
概要:この論文は、EU、ブラジル、カナダにおける提案または既存のAI規制法を比較分析し、これらの枠組みが参加型および熟議型民主主義の原則をどの程度実現しているかを考察しています。特に、市民がAIガバナンスに参加し、意見を述べる機会が十分に確保されているかという観点から、各法域の具体的なツールとメカニズムを検討しています。
AI技術の急速な発展と社会への浸透は、民主主義のあり方に根本的な問いを投げかけています。欧州連合、ブラジル、カナダという三つの先進的な法域におけるAIガバナンスの枠組みを比較分析したこの論文は、技術規制と民主的統制の緊張関係を浮き彫りにしています。
著者のMehmet B. Unverは、英国ハートフォードシャー大学の法学講師として、AIガバナンスが参加型民主主義と熟議民主主義の理論をどの程度尊重しているかを検証しました。三つの法域はいずれも倫理的ガバナンスとリスク評価を重視していますが、市民の参加と熟議を促進する具体的なメカニズムの構築には十分に至っていないことが明らかになりました。
民主主義の危機とAIの役割
富良野:Phronaさん、この論文を読んで気になったのは、AIが民主主義を脅かすという前提なんですよね。でも実際、AIそのものが問題なのか、それともAIをどう統治するかが問題なのか、その区別が重要だと思うんです。
Phrona:ええ、その通りですね。論文では、AIが公共知識の形成を再構築していると指摘していますが、これは単なる技術的な問題ではなく、認識論的な基盤に関わる話ですよね。ディープフェイクや情報操作によって、人々が何を真実だと信じるかが変わってしまう。
富良野:そうなんです。民主主義って、市民が情報に基づいて意思決定に参加することが前提じゃないですか。でもAIが介在することで、その情報自体の信頼性が揺らいでいる。論文が指摘する「認識的不正義」という概念は、まさにそこを突いていますね。
Phrona:認識的不正義というのは、知識へのアクセスや知識の形成過程において不公平が生じることですよね。専門家とそうでない市民との間に知識の壁があって、その壁がAIによってさらに高くなっている。
富良野:まさに。そしてこの論文が面白いのは、AIガバナンスそのものが、その壁をさらに強化してしまうかもしれないと警告している点なんですよ。
三つのガバナンスモデルの比較
Phrona:論文ではEU、ブラジル、カナダの三つの法域を比較していますが、それぞれかなりアプローチが違いますよね。
富良野:そうですね。EUのAI規制法は非常に包括的で、リスクベースのアプローチを採用しています。高リスクAIシステムには厳格な要件が課されていて、リスク管理、データガバナンス、技術文書化、透明性、人間による監視など、かなり詳細な規制になっています。
Phrona:でも、市民の参加という点ではどうなんでしょう?
富良野:それがまさに問題点なんです。EUの枠組みでは、市民に与えられる権利は「説明を受ける権利」と「苦情を申し立てる権利」の二つだけ。これは間接的な参加の手段にすぎず、ガバナンスプロセスそのものへの市民の関与は限定的なんです。
Phrona:つまり、AIシステムが既に開発されて、それが問題を起こした後でしか市民は関与できないということですか?
富良野:その傾向が強いですね。一方、ブラジルの法案はかなり異なるアプローチを取っています。
ブラジルモデルの特徴
Phrona:ブラジルのアプローチが最も民主的だと論文は評価していますよね。
富良野:はい。ブラジルの法案では、市民に対してはるかに広範な権利が認められています。事前情報権、プライバシーとデータ保護の権利、AI決定への人間参加の権利、差別的バイアスの是正権、説明を受ける権利、AI決定に異議を唱える権利など、包括的な権利セットです。
Phrona:それだけじゃなくて、参加のメカニズムも組み込まれているんですよね。
富良野:そうなんです。特に注目すべきは、アルゴリズム影響評価を実施する前に、公的協議を義務付けている点です。これは民間企業にも公的機関にも適用されます。つまり、高リスクAIシステムを導入する前に、市民の声を聞かなければならないということです。
Phrona:それは画期的ですね。でも、実際にどのように機能するかは、まだ不透明な部分もあるんじゃないですか?
富良野:おっしゃる通りです。法案の文言はやや曖昧で、実際の運用においてどこまで徹底されるかは未知数です。ただ、方向性としては、市民をガバナンスプロセスの中心に置こうとする明確な意図が見えますね。
カナダの分散型アプローチ
Phrona:カナダのアプローチはどうなんでしょう? かなり違うように思えますが。
富良野:カナダは、三つの中で最も柔軟で分散型のアプローチを取っています。提案されているAIDA、つまり人工知能・データ法は、連邦レベルの枠組みを提供しますが、実際のガバナンスは各セクターの規制当局や州政府と協力して行われることが想定されています。
Phrona:それは連邦制の性格を反映しているんでしょうね。
富良野:まさにそうです。カナダの政治文化は、多様な地域やアイデンティティグループの利益を調整することを重視しますから、AIガバナンスもその延長線上にあるわけです。ただし、これには欠点もあります。
Phrona:どんな欠点でしょう?
富良野:論文が指摘しているのは、カナダの提案では、市民の参加と熟議のための具体的なメカニズムが法案自体には組み込まれていないということです。既存の民主的プロセス、例えば議会審査や市民集会などに委ねられている形になっています。
Phrona:でも実際には、連邦政府がアルゴリズム影響評価のための質問票を開発したり、公的な関与を促進したりしているんですよね?
富良野:そうなんです。実務レベルでは市民参加の取り組みが進んでいます。ただ、それが法的に義務付けられていないという点が問題なんですよ。政権が変わったり、優先事項が変わったりすれば、そうした取り組みが後退する可能性がある。
規制国家と民主的統制のジレンマ
Phrona:この論文で興味深かったのは、「規制国家」という概念を使ってEUのアプローチを批判している点です。これはどういう意味なんでしょう?
富良野:規制国家というのは、政府が市場の効率性を高めるために規制を行う一方で、市民が政策決定に直接関与する機会が限られている状態を指します。EUのAI規制は、確かに産業界に対して厳格な要件を課していますが、それは主に倫理的な懸念への対処とリスク管理に焦点を当てています。
Phrona:つまり、市民のためのフォーラムではなく、市場のための規制になっているということですか。
富良野:その危険性があるということです。もちろん、バイアスの防止や透明性の確保といった倫理的要件は重要ですが、それだけで民主的統制が達成されるわけではない。市民が意思決定プロセスに実質的に参加し、熟議できる仕組みが必要なんです。
Phrona:でも、既存の民主的な制度、例えば市民集会とかでは不十分なんですか?
富良野:論文はそこを問題視しています。市民集会のような熟議の場は確かに価値がありますが、いくつかの限界があります。参加者の選定が準ランダムであることによる代表性の問題、外部からの影響を受けやすいこと、コストやリソースの制約などです。
Phrona:AIガバナンスに特化した、新しい参加と熟議の仕組みが必要だということですね。
富良野: その通りです。AIの複雑さと影響の大きさを考えれば、既存の民主的制度だけでは対応しきれない可能性が高い。AIガバナンスの枠組みの中に、市民参加と熟議のための特別なメカニズムを組み込む必要があるんです。
三つの参加経路
Phrona:論文には、市民がAIガバナンスに参加する三つの経路を示した図がありましたよね。
富良野:はい、あれは分かりやすい整理でした。経路Aは、市民が産業界のステークホルダー、つまりAIの設計・開発・展開に関わる企業に直接働きかけるルート。経路Bは、政府や規制当局に働きかけるルート。経路Cは、市民社会組織、学術界、専門家に働きかけるルートです。
Phrona:三つの法域は、これらの経路をどの程度開いているんでしょうか?
富良野:論文の分析によれば、経路Aはすべての法域で最も弱いです。企業が自主的に市民の意見を聞くことはあっても、法的に義務付けられていないんです。ブラジルだけが、アルゴリズム影響評価において公的参加を義務付けることで、この経路を部分的に開いています。
Phrona:経路Bはどうですか?
富良野:EUとブラジルは、個人の権利という形で経路Bを開いています。ただし、ブラジルの方がはるかに包括的です。カナダは、法案自体には明確な規定がなく、実務レベルでの取り組みに依存しています。
Phrona:経路Cは?
富良野:これはどの法域でも法的に規定されていません。ただ、市民社会の組織力によって、自然発生的に機能することはあります。論文は、これを法的に保障する必要まではないと考えているようです。
知識の壁をどう乗り越えるか
Phrona:この議論で一番難しいのは、専門家と市民の間の知識の格差だと思うんです。AIのような高度に技術的な分野で、一般市民がどこまで有意義な貢献ができるのか、という問題です。
富良野:それは確かに重要な論点ですね。でも論文は、その知識の壁こそが認識的不正義の核心だと主張しています。専門家だけに決定を委ねてしまうと、民主的統制が失われてしまう。
Phrona:でも、だからといって、技術的な素養のない人たちに複雑な判断を求めるのは現実的じゃないですよね。
富良野:その通りです。だからこそ、熟議のプロセスが重要なんです。市民が単に意見を述べるだけでなく、情報を得て、議論を通じて理解を深め、よく考えられた判断を形成できるような場が必要なんです。
Phrona:それはかなり理想的な話ですが、実現可能なんでしょうか。
富良野:完全に実現するのは難しいでしょうね。でも、何もしないよりは、そういう仕組みを作る努力をする方がいい。ブラジルの公的協議の義務付けは、その一歩だと言えます。
Phrona:公的協議だけで十分なんですか?
富良野:いいえ、それだけでは不十分でしょう。論文も、より構造化された熟議の場、例えばAIガバナンスに特化した市民パネルや、継続的な対話の仕組みが必要だと示唆しています。
自己規制の可能性と限界
Phrona:ブラジルとカナダは、自己規制を重視しているようですね。これはどう評価すべきでしょうか?
富良野:自己規制には利点と欠点があります。利点は、柔軟性と業界の専門知識を活用できること。技術は急速に進化するので、硬直的な規制では対応しきれないこともあります。
Phrona:欠点は?
富良野:企業が自己の利益を優先する可能性があることです。民主的統制の観点からは、自己規制だけでは不十分で、市民や政府による監視が必要です。ブラジルの法案は、自己規制と並行して公的協議を義務付けることで、バランスを取ろうとしています。
Phrona:EUのアプローチは自己規制をどう位置づけているんですか?
富良野:EUは行動規範や規制サンドボックスという形で、自主的な取り組みを奨励しています。ただし、これらは主に産業界向けで、市民の参加は限定的です。厳格なトップダウンの規制と並行していますが、民主的な要素は弱いと言えます。
AIと民主主義の未来
Phrona:結局のところ、AIガバナンスは民主主義を損なっているんでしょうか、それとも民主化しているんでしょうか?
富良野:それは、どうガバナンスを設計するかによると思います。現状では、多くの枠組みが倫理的な懸念への対処に重点を置いていて、民主的統制は二の次になっている傾向があります。でも、ブラジルの例が示すように、より民主的なアプローチも可能なんです。
Phrona:でも、ブラジルの法案もまだ提案段階で、実際にどう機能するかはわからないですよね。
富良野:その通りです。文言が曖昧な部分もあるし、実施段階でどこまで徹底されるかは未知数です。でも、方向性としては正しいと思います。市民をガバナンスプロセスの中心に置き、参加と熟議の機会を制度化しようとしている。
Phrona:EUやカナダも、その方向に舵を切る可能性はあるんでしょうか?
富良野:可能性はありますね。特にEUは、規制を頻繁に改正する傾向がありますから。市民社会や学術界からの圧力が強まれば、より民主的な要素を取り入れる可能性はあると思います。
Phrona:でも、企業側からの抵抗も強そうですね。
富良野:もちろんです。企業は、規制による負担や、競争力への影響を懸念します。ただ、長期的には、民主的な正当性を持つガバナンスの方が、社会的な信頼を得やすく、持続可能だと思うんですよ。
信頼の回復に向けて
Phrona:この論文で繰り返し出てくるのが、民主主義への信頼の低下という問題です。AIガバナンスは、その信頼を回復する機会にもなりうるということですか?
富良野: まさにそうです。現在、多くの国で政府や民主的制度への信頼が低下しています。その一因は、人々が自分たちの声が届いていないと感じていることです。AIのような重要な技術の統治に市民が関与できれば、民主主義への信頼を回復する一助になるかもしれません。
Phrona:でも、AIそのものが信頼を損なう要因にもなっていますよね。偽情報とか、アルゴリズムによる操作とか。
富良野:その矛盾がまさに問題の核心なんです。AIは民主主義を脅かす要因でもあり、同時に、適切に統治されれば、民主主義を強化するツールにもなりうる。だからこそ、AIガバナンスのあり方が決定的に重要なんです。
Phrona:結局、技術の問題というより、政治と社会の問題なんですね。
富良野:その通りです。この論文が示しているのは、AIガバナンスは技術的な課題であると同時に、民主主義の根本的な問題だということです。技術の専門家だけでなく、市民全体が関わるべき問題なんです。
Phrona:でも、市民全体が関わるというのは、言うは易く行うは難しですよね。
富良野:もちろんです。でも、何もしなければ、民主主義はさらに弱体化するでしょう。完璧でなくても、市民参加と熟議の仕組みを作る努力をすることが、民主主義を守る第一歩だと思います。
ポイント整理
AIガバナンスにおける民主的統制の必要性
AIの普及により、民主主義は深刻な危機に直面している。公共知識の形成がAIによって媒介されることで、市民の情報に基づいた意思決定能力が損なわれる可能性がある。
AIガバナンスは倫理的懸念への対処だけでなく、参加型および熟議型民主主義の原則を組み込む必要がある。既存の民主的制度だけでは、AIがもたらす固有の課題に十分に対応できない可能性がある。
認識的不正義と社会的不正義への対処が重要である。専門家と市民の間の知識の壁は、民主的統制を阻害する要因となる。
EU、ブラジル、カナダの比較分析
EUのアプローチ: 包括的なリスクベースの規制を採用し、高リスクAIシステムに厳格な要件を課している。しかし、市民の参加は「説明を受ける権利」と「苦情を申し立てる権利」という二つの個人的権利に限定されており、ガバナンスプロセスへの直接的な関与は限定的である。規制国家的な性格が強く、民主的統制よりも倫理的ガバナンスを優先している。
ブラジルのアプローチ: 三つの法域の中で最も民主的な枠組みを提示している。包括的な個人的権利に加えて、アルゴリズム影響評価の前に公的協議を義務付けるなど、市民の参加を制度化している。特に公的機関によるAI使用に対しては、より厳格な要件が課されている。原則の中にも、情報自己決定権、民主的プロセスの強化、自己決定と選択の自由など、民主主義を明確に重視する内容が含まれている。
カナダのアプローチ: 連邦制の性格を反映した、柔軟で分散型のガバナンスを採用している。提案されている法案自体には市民参加の具体的なメカニズムが組み込まれていないが、実務レベルでは様々な取り組みが進められている。自主的な行動規範や規制サンドボックスを重視し、産業界との協力を強調している。
市民参加の三つの経路
経路A(産業界への働きかけ): すべての法域で最も弱い。ブラジルがアルゴリズム影響評価における公的参加を義務付けることで、部分的にこの経路を開いている。
経路B(政府・規制当局への働きかけ): EUとブラジルは個人的権利を通じてこの経路を提供しているが、ブラジルの方がはるかに包括的である。カナダは法的な規定が不明確である。
経路C(市民社会・学術界・専門家への働きかけ): いずれの法域でも法的に規定されていないが、市民社会の組織力によって自然発生的に機能する。
自己規制と民主的統制のバランス
自己規制は柔軟性と専門知識の活用という利点があるが、企業の利益優先のリスクもある。
ブラジルとカナダは自己規制を重視しているが、その実効性を確保するためには、市民や政府による監視が不可欠である。
EUは厳格なトップダウン規制を採用しているが、自主的な取り組みも奨励している。ただし、これらの取り組みへの市民参加は限定的である。
既存の民主的制度の限界
市民集会のような既存の熟議の場には、代表性の問題、外部からの影響、コストやリソースの制約といった限界がある。
AIガバナンスの複雑さと影響の大きさを考えると、既存の民主的制度だけでは不十分である可能性が高い。
AIガバナンスに特化した、新しい参加と熟議のメカニズムを制度化する必要がある。
今後の課題と提言
法案の文言の明確化と、実施段階での徹底が重要である。特にブラジルの法案は、公的参加の要件に関して曖昧な部分がある。
継続的な対話の仕組み、AIガバナンスに特化した市民パネルなど、構造化された熟議の場の創設が必要である。
産業界のガバナンスプロセスへの市民の関与を法的に義務付けることを検討すべきである。
実証的および質的研究を通じて、参加と熟議のメカニズムをどのように設計し実装すべきかを明らかにする必要がある。
長期的には、民主的正当性を持つガバナンスの方が、社会的信頼を得やすく、持続可能である。
キーワード解説
【AIガバナンス】
人工知能システムの設計、開発、展開に関する規則、原則、メカニズムの総体。倫理的懸念への対処、リスク管理、透明性と説明責任の確保などを含む。
【参加型民主主義】
市民が政治的意思決定プロセスに積極的に関与する民主主義の形態。投票だけでなく、世論調査、アイデア収集、参加型予算編成などを含む。
【熟議民主主義】
意思決定において公共的な理性と対話を重視する民主主義の理論。市民集会、陪審、パネル、コンセンサス会議などを通じて実践される。
【認識的不正義】
知識へのアクセスや知識の形成過程における不公平。専門家と非専門家の間の知識の壁が、民主的参加を阻害する状況を指す。
【リスクベースアプローチ】
AIシステムがもたらすリスクのレベルに応じて、異なる規制要件を課すガバナンスの手法。高リスクシステムにはより厳格な要件が適用される。
【アルゴリズム影響評価】
AIシステムが社会、個人、基本的権利に及ぼす影響を事前に評価するプロセス。バイアス、差別、プライバシー侵害などのリスクを特定し、軽減策を講じることを目的とする。
【規制国家】
政府が市場の効率性を高めるために規制を行う一方で、市民が政策決定に直接関与する機会が限られている国家モデル。
【自己規制】
産業界が自主的に行動規範や基準を策定し、遵守する規制の形態。柔軟性がある反面、利益相反のリスクもある。
【説明を受ける権利】
AIシステムによる決定について、その論理や根拠を理解できる形で説明を受ける権利。透明性と説明責任の確保に関連する。
【市民集会】
無作為または準無作為に選ばれた市民が、特定の政策課題について議論し、提言をまとめる熟議の場。
【認識的エージェンシー】
知識の形成と共有における主体性。AIが認識的エージェンシーを持つことで、人間の政治的エージェンシーが脅かされる可能性がある。
【高リスクAIシステム】
雇用、教育、法執行、重要インフラなど、基本的権利や安全に重大な影響を及ぼす可能性のあるAIシステム。