top of page

アルゴリズムと公共圏――社会契約が書き変わる時、私たちの声は届くか [第4回]

シリーズ: 知新察来


◆今回のピックアップ記事:


  • 概要:AI の経済的影響に備えるための9つの政策アイデアを、3段階のシナリオ(軽微/中程度/急速)に分けて整理。外部の経済学者・政策専門家から集めた提案を、Anthropic自身の政策ポジションとは区別して紹介する。


  • OpenAI, "Industrial Policy for the Intelligence Age: Ideas to Keep People First"(2026年4月)


    • 概要:超知能(superintelligence)への移行期における産業政策のビジョンを、「開かれた経済の構築」と「レジリエントな社会の構築」の二本柱で提示。労働者の発言権、公共富裕ファンド、適応型セーフティネット、AI安全ガバナンスなど包括的な制度設計を提案する。



前回まで、二つの文書の政策提案を読み(第1回)、書き手の立ち位置を問い(第2回)、レジリエンスという概念の両義性を探りました(第3回)。今回考えたいのは、ここまでの議論を通じて浮かび上がってきた構造的な欠落——技術の方向性そのものへの社会的関与と、影響を受ける当事者によるガバナンス——をどうすれば埋められるのか、という問いです。


万能な答えはありません。でも、答えがないことは考えない理由にはなりません。富良野とPhronaは、構造的な困難に正直に向き合いながら、それでも可能な一歩を探ります。




第4回:議論のテーブルを作り直す――方向を決める権利は誰にあるか



なぜ椅子が足りないのか


富良野:このシリーズを通じて見えてきたのは、二つの文書に共通する構造的な欠落ですよね。一つは、AIの技術的な方向性やペースに対して社会が関与する回路がない。もう一つは、AIの影響を受ける当事者——労働者、地域コミュニティ、小規模事業者——がガバナンスのテーブルに座っていない。


Phrona:ここで大事なのは、この欠落がAnthropicやOpenAIの怠慢から生じているわけではない、ということですよね。


富良野:そう思います。構造的な困難がいくつもある。まず時間の問題。AIの技術開発サイクルは数ヶ月で回るのに、社会的な合意形成には数年かかる。「方向性を議論しましょう」と呼びかけている間に、技術が三世代先に行ってしまう。


Phrona:次に知識の問題。フロンティアAIが何をできて、何がリスクで、どこに向かっているかを本当に分かっているのは、開発している人たちだけ。外部から「方向性に関与したい」と言っても、判断に必要な情報がそもそも手の届かないところにある。


富良野:三つ目に、当事者の特定そのものの難しさ。AIの影響って、特定の工場が閉鎖されるとか、特定の地域が水没するとか、そういう局所的な問題じゃないんですよね。原理的には全員が影響を受ける。でも全員がテーブルに座ることは物理的にできない。


Phrona:そして四つ目が、集合行為の問題。AIの恩恵は広く薄く、リスクの認知はまだ抽象的で、でもAI企業の利害は集中的で組織化されている。「社会的関与」の担い手になるべき人たちは、組織化するインセンティブが弱い側にいる。


富良野:これだけの困難を並べると、「じゃあ無理じゃないか」と思いたくなる。でも、僕はこれを「不可能の証明」としてではなく、「制度設計の制約条件」として受け止めたいんです。


Phrona:制約条件は、解くべきパズルの形を教えてくれる。制約があることと、何もできないことは、同じではないですよね。



方向を問う場所をつくる


富良野:技術の方向性への社会的関与、というと大げさに聞こえるけれど、要するに「AIの開発で何を優先すべきか」「どんな応用は避けるべきか」を、開発者だけでなく社会の側からも声を出せる仕組みを作る、ということですよね。


Phrona:個々のアルゴリズムの設計に市民が口を出す、という話ではなくて。


富良野:ではなくて。たとえば「医療のAI活用を優先してほしい」「子どもの発達に影響する応用には慎重であってほしい」「軍事応用の範囲を限定してほしい」といった、方向性のレベルの話です。技術の中身ではなく、技術が向かう先についての判断。


Phrona:それは専門知識がなくても判断できる問いですよね。自分たちの社会がどうあってほしいか、という問いだから。


富良野:実は、これに近い制度は他の技術分野では実績があるんです。デンマークには1986年から技術評価委員会というのがあって、無作為に選ばれた市民が専門家の説明を聞いた上で、遺伝子技術やエネルギー政策について勧告を出してきた。アイルランドの市民議会は、同性婚や中絶といった難しい社会的問題について、無作為抽出の市民が議論して国民投票の方向性を事実上決めた。


Phrona:無作為抽出、というのがポイントですよね。選挙で選ばれた政治家でも、自薦のアクティビストでもなく、くじ引きで選ばれた普通の市民が、専門家の話を聞いて、議論して、判断を出す。


富良野:この仕組みのいいところは、「専門家が判断を独占する」のでもなく、「全員で投票する」のでもない中間地帯を作れることなんです。少数の市民が時間をかけて学び、議論し、勧告を出す。その勧告が社会全体の判断の土台になる。


Phrona:AIの方向性について、これと同じことができるかどうか。


富良野:形式的には可能だと思います。ただし、決定的に重要なのは、勧告に制度的な力を持たせられるかどうかです。単なる「参考意見」だと、AI企業のメタガバナンス権力には対抗できない。


Phrona:勧告を何に接続するか、ということですよね。


富良野:たとえば、公的なAI研究資金の配分基準に接続する。市民パネルが「この方向を優先すべきだ」と勧告したら、その方向の研究に予算が厚くつく。あるいは、AIインフラの許認可の条件に接続する。大規模データセンターの建設許可に、市民パネルの評価を組み込む。


Phrona:資金とインフラという、具体的なレバレッジに結びつける。


富良野:もう一つの回路は、対抗的な知識生産のインフラを公的に整備することです。「知識を作る場所の問題」は議論しましたけど、AI企業から独立してAIの社会的影響を研究できる拠点を、公的資金で作る。


Phrona:製薬業界に対する独立した臨床試験の仕組みが何十年もかけて作られてきたように。


富良野:ただ、ここでまた認識的非対称性の壁に当たるんですよ。AIの社会的影響を独立に研究するには、AIシステムへのアクセスが要る。そのアクセスを提供できるのはAI企業だけ。完全な独立は構造的に難しい。


Phrona:でも、「完全な独立」を待っていたら永遠に始まらないですよね。部分的な独立でも、ないよりは遥かにまし。そして、部分的に独立した知識の蓄積が、さらなる独立の足場を作っていく。


富良野:そこは同意です。最初から完璧を求めるのではなく、不完全でも始めて、やりながら独立性を高めていく。制度は一回で完成するものじゃなくて、育てるものだから。



一つの中心では回らない


Phrona:もう一つの欠落、当事者によるガバナンスの話に移りたいんですが、ここで参考になるのは、政治学者のエリノア・オストロムが研究した「多中心的ガバナンス」の考え方ですよね。


富良野:オストロムは、共有資源の管理——灌漑用水とか、漁場とか、共有の森林とか——を世界中で調査して、一つの大きな権威が上から管理するよりも、複数の小さな意思決定の中心が互いに調整しながらガバナンスする方がうまくいく場合が多い、ということを実証した。2009年のノーベル経済学賞はこの仕事に対するものです。


Phrona:大事なポイントは、オストロムのケースでは、資源を実際に使っている人たち自身がルールを作り、モニタリングし、違反に対処していた、ということですよね。外部の専門家や政府が設計した制度を上から適用するのではなく、当事者がガバナンスの主体であること。


富良野:AIのガバナンスにこの考え方を直接適用できるかというと、正直かなり難しい。オストロムの事例がうまくいったのは、いくつかの条件が揃っていたからなんです。資源の境界がある程度はっきりしていること。利用者のコミュニティが同定できること。ルール違反を監視できること。制裁が有効に機能すること。


Phrona:AIの場合、そのどれもが怪しいですよね。AIという「資源」の境界は曖昧だし、影響を受けるコミュニティは地球全体に広がるし、AI企業の内部で何が起きているかの監視は外部からほぼ不可能。


富良野:だからオストロムの知見を「翻訳」する必要がある。そのまま適用するのではなく、多中心的ガバナンスのエッセンス——複数の意思決定の中心が独自にルールを作り、互いの経験から学ぶ——を、AIの文脈でどう実現するかを考える。


Phrona:翻訳可能な部分はどこだと思いますか。


富良野:まず、セクター別の多中心化。AIが影響を与える各領域——医療、教育、金融、労働、司法——には、それぞれ専門的なコミュニティと既存のガバナンスの蓄積がある。AIのガバナンスを一つの「AI規制庁」に集約するのではなく、各領域の既存のガバナンス構造がAIの影響に対応する力を強化して、領域を横断する調整は別のメタ機関が担う。


Phrona:医療でのAI利用は医療の専門家コミュニティと患者組織が主体になり、教育でのAI利用は教育者と保護者と学生が主体になる。AIそのものの専門家が上から統一的にルールを下ろすのではなくて。


富良野:そう。各領域には「何が良い実践で、何が受け入れられないか」についての暗黙知が蓄積されている。その知恵を活かす方が、AI技術者だけで考えるより、実情に合ったガバナンスができる可能性が高い。


Phrona:もう一つの方向は、地理的な多中心化ですよね。AIの影響は普遍的と言っても、現れ方は地域によって全然違う。テック産業が集積している都市と、製造業の街と、農村部では、AIが雇用に与える影響の形が違う。


富良野:OpenAIの適応型セーフティネットを、全国一律ではなく地域単位で運用して、地域の関係者がモニタリングと対応策の設計に参加する、という形にすれば、これはオストロム的な「ネスト化された制度」のAI版になる。


Phrona:中央が全体の枠組みを提供し、地域がその枠組みの中で自分たちの状況に合ったルールを作り、地域間で経験を共有して学び合う。

富良野:三つ目は、制度の実験そのものを多中心的にやることです。金融規制のサンドボックスという仕組みがあるんですが、特定の条件下で既存の規制を部分的に免除して、新しい技術やサービスの社会的影響を実験的に評価する。これをAIガバナンスに応用する。


Phrona:ただし、いまのサンドボックスは企業と規制当局の二者間で運用されていることが多いですよね。


富良野:そこを変えたいんです。企業と規制当局だけでなく、影響を受けるコミュニティや労働者の代表も含めた三者間のサンドボックスにする。そうすれば、実験のデザイン自体に当事者の視点が入る。


Phrona:オストロムの原点に近づきますね。ルールの形成に、ルールの影響を受ける人たちが参加する。


富良野:ただ、ここで正直に言うと、これらのアイデアはどれも「あった方がいい」のは明らかでも、実装の段階では膨大な制度設計の詰めが必要で、簡単には動きません。


Phrona:簡単に動かないことと、動かすべきではないことは、違いますけどね。



まだ名前のない制度のために


Phrona:ここまで、市民パネル、対抗的知識生産、セクター別のガバナンス、地域レベルのモニタリング、三者間サンドボックス。いろいろなアイデアが出てきましたけど、どれにも共通して必要なものがある気がしていて。


富良野:何ですか。


Phrona:認識のインフラ、とでも呼ぶべきもの。


富良野:認識のインフラ?説明してください。


Phrona:市民パネルが機能するためには、パネルの参加者がAIの影響について自分の文脈で理解できる情報が必要ですよね。地域のモニタリング委員会が機能するには、「自分たちの街で何が起きているか」を把握するための指標とその読み方が必要。セクター別のガバナンスが機能するには、各領域の専門家がAIの技術的側面について十分に知っている必要がある。


富良野:どの仕組みも、「参加する権利」だけでは足りなくて、「意味のある判断ができるための知識基盤」がセットで必要だ、と。


Phrona:しかもそれは、一方的に情報を流すだけでは作れない。抽象的な予測値を見せても、自分の生活との接点が分からなければ判断の材料にならない。「あなたの地域の、あなたの業種で、こういうことが起きつつある」という具体性がないと。


富良野:それと同時に、異なる立場や利害を持つ人たちが、構造化された対話を通じて合意点を見つけていくプロセスの設計も要る。単なるパブリックコメント——意見を投げて終わり——でもなく、タウンホール——発言はするけど議論は構造化されない——でもない何か。


Phrona:何が争点で、何なら合意できるかが可視化されて、段階的に議論が深まっていく仕組み。

富良野:この種の制度は、まだ名前がついていないかもしれない。既存のどの制度にもぴったりは当てはまらない。市民議会でもなく、パブリックコメントでもなく、審議会でもない。AI時代のガバナンスに固有の、新しい形の公共的討議の場。


Phrona:名前がないからといって存在できないわけではないですよね。かつて「環境アセスメント」という制度も、「情報公開法」という制度も、必要性が認識されてから制度として確立されるまでに、長い時間がかかっています。


富良野:一つ励みになるのは、このシリーズで見てきた政策提案の多くも、数年前なら「非現実的だ」と片付けられていたであろうアイデアだ、ということです。公共富裕ファンドとか、トリガー型セーフティネットとか、コンピュート課税とか。


Phrona:AIの急速な発展が、政策の議論の窓を大きく開いた。以前は端にも載らなかったアイデアが、真剣に議論される空間が生まれている。


富良野:その窓が開いている今こそ、ガバナンスの制度設計についても同じ野心を持つべきなんだと思います。税制や支出の話だけじゃなく、「誰が決めるか」「どう決めるか」の制度についても。


Phrona:ただ、ここで一つ、根本的な循環に気づいてしまうんですよね。「誰が決めるかを決める」制度を、誰が作るのか、という循環。多中心的なガバナンスの仕組みを作るべきだとして、その仕組みの最初の設計は、結局は既存の権力構造の中で行われざるを得ない。市民パネルを設立する法律を通すのは議会だし、独立した研究機関を作る予算をつけるのも政府。


富良野:それは避けられない循環ですね。どんな制度も、最初の一歩は既存の制度の中から踏み出される。オストロムが研究した共有資源のガバナンスも、最初から完成形で存在していたわけじゃなく、長い試行錯誤の中で育ってきた。


Phrona:だから問いは「循環をどう断ち切るか」ではなくて、「循環の中で、少しずつ制度を育てていけるか」なのかもしれない。


富良野:最初から完璧な制度を設計するのではなく、不完全な一歩を踏み出して、その結果から学んで修正して、また一歩を踏み出す。「制度の自己修正能力」という話と繋がりますね。


Phrona:変容的レジリエンスが制度設計のプロセスそのものに必要になる、という。


富良野:ここまで、市民パネル、セクター別ガバナンス、地域モニタリング、三者間サンドボックスと、いろいろな仕組みを構想してきましたけど、僕たちが今日話してきたこと、全部一国の中で閉じた話なんですよね。


Phrona:……言われてみると、そうですね。市民パネルも、地域のモニタリング委員会も、暗黙にどこかの国の中を前提にしている。


富良野:でもコンピュート課税の話を思い出すと、ある国が課税を導入したら、AI企業は課税しない国に移動するかもしれない。モデル封じ込めの話も、国境を越えて広がるリスクに対して一国の規制では根本的に足りない。


Phrona:国のレベルで考えている限り、底が抜けてしまう問題がある、と。


富良野:「誰がどうやって決めるのか」という統治の問いを突き詰めると、国内のガバナンスだけでは答えきれない地点に来てしまう。


Phrona:でもグローバルなガバナンスって、国内以上に「テーブルに誰が座るか」の問題が厄介ですよね。国際機関は大国の意向で動くし、AI産業を持たない国の声はさらに届きにくい。


富良野:厄介だからこそ、考えないわけにはいかないんだと思います。難しいことと、やらなくていいことは、違いますから。



 

ポイント整理


  • 当事者不在の構造的理由

    • AIガバナンスにおける当事者の不在は、怠慢ではなく構造的困難に根ざしている。技術開発と合意形成の時間スケールの非対称性、知識の非対称性、当事者の特定困難、集合行為問題。これらは「不可能の証明」ではなく「制度設計の制約条件」として受け止める。

  • 方向性のレベルでの社会的関与

    • 個々の技術的判断ではなく「AIの開発で何を優先すべきか」「どんな応用を避けるべきか」という方向性の問いは、専門知識がなくても市民が判断できる抽象度にある。デンマークの技術評価委員会やアイルランドの市民議会に実績がある。

  • 勧告の制度的接続

    • 市民パネルの勧告を「参考意見」にとどめず、公的研究資金の配分基準やAIインフラの許認可条件に接続することで、市民の判断がAI開発の資源配分に実質的な影響を持つ回路が生まれる。

  • 多中心的ガバナンスのAIへの翻訳

    • オストロムの知見を直接適用するのではなく翻訳する。セクター別の多中心化(各領域の既存ガバナンス構造のAI対応力強化)、地理的多中心化(地域単位のモニタリングと対応)、実験的ガバナンス(三者間AIサンドボックス)の三つの経路。

  • 認識のインフラという共通条件

    • 社会的関与と多中心的ガバナンスのどちらにも、「参加の権利」だけでなく「意味ある判断のための知識基盤」が必要。当事者が自分の文脈でAIの影響を理解できる情報提供と、異なる立場の間で構造化された対話を行うプロセスの設計が不可欠。

  • 「誰が決めるかを決める」の循環

    • 新しいガバナンス制度を作る最初の一歩は、既存の権力構造の中から踏み出される。この循環は断ち切れないが、不完全な対話から不完全な制度が芽を出し、その制度が次の対話を構造化するという漸進的なプロセスとして引き受けることができる。

  • 統治の問いとしてのAI——そしてその先へ

    • 果実の分配は経済の問い、リスクへの備えは技術の問い。だが両方の根底にあるのは「誰がどうやって決めるのか」という統治の問い。しかしこの問いを一国の枠内で考える限り、課税の囚人のジレンマ、モデル封じ込めの越境性、アクセス権のグローバル不平等によって構造的に底が抜ける。国内ガバナンスとグローバル・ガバナンスの接続が次の課題となる。



キーワード解説


【多中心的ガバナンス(Polycentric Governance)】

政治学者エリノア・オストロムが実証的研究を通じて提唱した概念。単一の中央集権的権威ではなく、複数の独立した意思決定中心が相互に調整しながらガバナンスを行う体制。灌漑用水、漁場、共有林などの共有資源管理で、政府による一元管理や完全な民営化よりも効果的に機能する事例が世界中で確認された。オストロムは2009年にノーベル経済学賞を受賞している。


【エリノア・オストロム(Elinor Ostrom, 1933-2012)】

アメリカの政治学者。インディアナ大学教授。共有資源のガバナンスに関する実証的研究で知られる。女性初のノーベル経済学賞受賞者。代表的著作に「コモンズのガバナンス」がある。「資源利用者自身がルール形成に参加するとき、ガバナンスの質は高まる」という知見は、AI時代のガバナンス設計にも翻訳可能な示唆を含む。


【市民議会(Citizens' Assembly)】

無作為に抽出された市民が、特定の政策課題について専門家の説明を聴取し、議論した上で勧告を出す制度。アイルランドでは同性婚や中絶に関する憲法改正について市民議会が実質的に方向性を決めた。選挙で選ばれた政治家でも自薦のアクティビストでもない「普通の市民」が、時間をかけて学び判断するところに特徴がある。


【技術評価委員会(Technology Assessment Board)】

新しい技術の社会的影響を事前に評価し、政策に反映するための公的機関。デンマークのTeknologirådet(1986年設立)が代表例で、遺伝子技術・エネルギー・デジタル技術などについて市民参加型の技術評価を行ってきた。技術の方向性への社会的関与の具体的な制度形式として参照される。


【対抗的知識生産(Counter-Expertise)】

支配的な知識生産主体(この文脈ではAI企業)から独立して、異なる視点や利害から知識を生産すること。独立した技術評価、市民社会主導の調査研究、公的資金による基礎研究などがその手段となる。AI企業の知識生産に依存した政策議論の限界を超えるために、公的資金による独立研究インフラの整備が課題。


【ネスト化された制度(Nested Institutions)】

オストロムが分析した制度構造の一つで、小規模なガバナンス単位が、より大きな枠組みの中に「入れ子」状に組み込まれている形態。中央が全体の枠組みを提供し、地域が独自のルールを作り、地域間で経験を共有するという三層構造。AIガバナンスでは、国の枠組みの中で地域レベルの適応が行われる構造として翻訳される。


【AIサンドボックス(AI Sandbox)】

金融規制のサンドボックス(特定条件下での規制免除実験)をAIガバナンスに転用する構想。異なる地域やセクターが異なるAIガバナンスのルールを試行し、結果を比較・学習する。企業と規制当局の二者間から、影響を受けるコミュニティや労働者も含めた三者間の実験へと拡張することで、当事者参加型の制度実験が可能になる。


【認識のインフラ(Epistemic Infrastructure)】

社会的関与と多中心的ガバナンスが機能するための知識的基盤。単なる情報公開やリテラシー教育を超え、当事者が自分の文脈でAIの影響を理解できる情報提供の仕組み、異なる立場の対話を構造化するプロセスの設計、ガバナンスの実験結果を集約・共有・学習するフィードバック機構の三つの要素を含む。



本稿は近日中にnoteにも掲載予定です。
ご関心を持っていただけましたら、note上でご感想などお聞かせいただけると幸いです。
bottom of page