アルゴリズムと公共圏――社会契約が書き変わる時、私たちの声は届くか [第2回]
- Seo Seungchul

- 1 日前
- 読了時間: 15分
更新日:1 日前

シリーズ: 知新察来
◆今回のピックアップ記事:
Anthropic, "Preparing for AI's economic impact: exploring policy responses"(2025年10月14日)
概要:AI の経済的影響に備えるための9つの政策アイデアを、3段階のシナリオ(軽微/中程度/急速)に分けて整理。外部の経済学者・政策専門家から集めた提案を、Anthropic自身の政策ポジションとは区別して紹介する。
OpenAI, "Industrial Policy for the Intelligence Age: Ideas to Keep People First"(2026年4月)
概要:超知能(superintelligence)への移行期における産業政策のビジョンを、「開かれた経済の構築」と「レジリエントな社会の構築」の二本柱で提示。労働者の発言権、公共富裕ファンド、適応型セーフティネット、AI安全ガバナンスなど包括的な制度設計を提案する。
前回、AnthropicとOpenAIの政策提言を並べて読み、具体的な中身を見てきました。段階的な課税論の知的な面白さ、トリガー型セーフティネットの設計の巧みさ、効率配当というケインズ的な野心。中身は充実していて、敬意を払うに値する内容でした。
でも、読み終わったあとに残った小さな違和感がありました。これだけ精緻な処方箋が並んでいるのに、処方箋を書いている人たちの立ち位置への問いが、文書の中にはほとんど見当たらない。今回、富良野とPhronaはその違和感の正体を探ってみます。批判のための批判ではなく、何が構造的に起きているのかを見つめ直すために。
第2回:処方箋を書いているのは誰か――議題と正統性のありか
招待されたテーブル
富良野:これまで見てきた政策アイデアって、どれも内容的にはかなり練られていますよね。でも少し引いて見たときに気になったのは、誰がこの議論に参加しているのか、という点なんです。
Phrona:Anthropicの方は、それがわりと見えやすいですよね。Economic Advisory Councilのメンバーとか、Economic Futures Symposiumの参加者とか、各提案に名前と所属が書いてある。
富良野:Mercatus Center、ペンシルバニア大学、MIT Sloan、American Compass。いずれも有力な政策研究機関や大学に所属する経済学者・政策専門家です。
Phrona:政治的なスペクトラムとしては幅がありますよね。American Compassは保守系の労働政策を掲げているし、Mercatus Centerは市場主義的な傾向が強い。意図的に党派を横断して声を集めている。
富良野:そうなんです。専門家の中での多元性は確保されている。問題は、その専門家の輪の外側に誰がいるか、という話で。
Phrona:たとえば、AIで仕事がなくなるかもしれない人たち自身は、このテーブルにはいない。
富良野:工場の労働者、コールセンターのオペレーター、フリーランスのライター、地方の中小企業の経営者。AIの影響を最も直接的に受ける可能性がある人たちは、政策を考える場に制度的には組み込まれていない。
Phrona:OpenAIの方は、修辞的にはもっと広い参加を呼びかけていますよね。「政府、企業、研究者、市民社会、コミュニティ、家族」の間で対話が必要だと繰り返し書いている。「民主的プロセス」という言葉も何度も出てくる。
富良野:でも、その文書自体は民主的プロセスを経て書かれたものではなくて、一企業の政策チームが起草したもの。「対話が必要だ」と呼びかけている文書が、対話なしに書かれている。
Phrona:それはパラドックスというより、最初の一手は誰かが打たなければならない、という実務的な制約とも言えませんか。
富良野:もちろんそうです。誰かが口火を切らなければ議論は始まらない。でも、口火の切り方が議論の方向を決めてしまう、という問題がある。哲学者のハーバーマスが「公共圏」という概念で考えたのは、まさにこの点なんですよね。影響を受けるすべての人が合理的な討議に参加できる条件が整っていること。それが正統性の基盤だ、と。
Phrona:で、その条件は、この場合まったく整っていない。
富良野:整っていない。ただ、ハーバーマスの基準をそのまま当てはめると、この世にほとんど何も正統な討議は成立しないことになるので、程度の問題として考えるべきだとは思います。でも、AIの経済的影響に関する政策を議論する場に、影響を受ける当事者がほとんどいない、という事実は、程度の問題としてもかなり大きい。
問いの設定権を持っているのは
Phrona:参加者が偏っている、というだけじゃない気がするんですよね、この問題は。もう少し深い層がある。
富良野:どういうことですか。
Phrona:二つの文書を並べて読み返したときに気づいたんですが、どちらも同じ問いの立て方をしている。「AIは進む。問題はその果実と被害をどう分配するか」という枠組み。これは両方に共通しています。
富良野:言われてみると、確かにそうですね。Anthropicの3段階のシナリオも、OpenAIの超知能ナラティブも、AIの進化そのものは所与として扱っている。
Phrona:でも、別の問い方もあり得ますよね。「AIの開発をこのペースで進めるべきなのか」「どの方向にAIを進めるべきか」「そもそも誰が進めるかを誰が決めるのか」。そういう問いは、両文書ともほとんど立てていない。
富良野:それは意図的に避けているというより、自然に見えなくなっている気がする。AI開発企業にとって、AI開発が進むことは前提であって、問いの対象じゃない。水の中にいる魚に「水って何?」と聞くようなもので。
Phrona:政治学者のスティーヴン・ルークスが「三次元的権力」という概念で分析したのが、まさにこれですよね。権力の第一の次元は、争点について勝つ力。第二の次元は、何が争点になるかを決める力。そして第三の次元は、何が争点にならないかを決める力。
富良野:「何が議論されないか」を決定する権力。
Phrona:AIの開発のペースや方向性そのものを議論の射程外に置くことは、意図的な隠蔽である必要はないんです。ルークスの洞察は、この種の権力は多くの場合、行使している側にも見えていない、という点にある。
富良野:それは陰謀論とは全く違う話ですよね。AI企業が悪意で論点を隠しているのではなくて、企業の存在構造そのものが、特定の問いを自然に見えなくする。
Phrona:OpenAIの文書が典型的で、「超知能の到来に備えて、新しい社会契約が必要だ」と力強く語っている。でも「超知能を追求すべきかどうか」は問いの選択肢に入っていない。それは隠しているのではなく、書いている人たちにとって問う必要のない前提になっている。
富良野:ただ、ここで少し立ち止まりたいんです。「技術の方向性を社会的に議論すべきだ」という主張は正当だと僕も思う。でも、現実にそれが可能かというと、相当に難しい問題がある。
Phrona:どういう難しさですか。
富良野:まず時間の問題。AIの技術開発サイクルは数ヶ月で回るけど、社会的な合意形成には数年かかる。議論している間に技術が先に行ってしまう。それから安全保障の問題。ある国がペースを落としても、別の国が加速すれば、ペースを落とした方が不利になる。
Phrona:だから「進む前提で備えよう」という両文書の立場には、一定の現実主義がある。
富良野:そうです。両文書を「技術の方向性を問わないからダメだ」と切り捨てるのは、批判としては正当でも、代替案がない限り宙に浮いてしまう。
Phrona:でも、「現実的だから問わなくていい」とも言えないですよね。問いにくいことと、問わなくていいことは、別の話ですから。
富良野:ここは両方が正しい、というか、両方の力が同時に引っ張っている状態だと思います。技術の方向性への社会的関与は原理的に正当。でもその実装は構造的に難しい。両文書がこの問いを立てていないのは限界だけど、立てなかった理由にも理解できる部分がある。
自分の薬を飲む勇気
富良野:ここまでの議論って、AI企業の限界を指摘する方向に行きがちなんですけど、逆方向からも見てみたいんですよね。
Phrona:逆方向というと?
富良野:AI企業が政策提言をすること自体が、歴史的に見るとかなり異例だ、という事実。自動車メーカーが排ガス規制の政策提言を自分で書くとか、製薬会社が薬価引き下げの議論を主催するとか、普通はやらないわけで。
Phrona:普通は業界団体を通じてロビイングする。自社に有利な規制を推し、不利な規制を阻止する。
富良野:Anthropicがコンピュート課税について「自社の収益に直接影響するが研究に値する」と書いていたじゃないですか。OpenAIが「経済的利益がOpenAIのような少数の企業に集中するリスクがある」と自社名を出して認めたこと。これは企業行動としては異例なんですよ。
Phrona:もちろん、計算された行為でもありますよね。規制が来ることを見越して、自分から枠組みを提示することで、規制の形に影響力を持とうとしている。「規制されるなら、自分が規制の設計に関われる形がいい」という計算。
富良野:間違いなくその側面はある。でも、ここで一つの思考実験をしたいんです。動機が完全に戦略的だったとして、その行為が生み出す効果は何か。
Phrona:効果として見ると、「自社に不利な政策選択肢が公の議論の場に載った」ということですよね。Anthropicがコンピュート課税を議論の俎上に載せたことで、この選択肢を無視することが他のAI企業にとっても難しくなる。
富良野:そう。政策空間が広がっている。これは動機とは独立に評価できる効果です。
Phrona:ゲーム理論でいう「コミットメント装置」に似ていますね。自分の手を縛ることで、交渉の構造を変える。「私たちはこの課税を受け入れる用意がある」と公に宣言することで、業界全体がその方向に動きやすくなる。
富良野:ただし、この自己拘束がどの程度本気なのかは、事後的にしか検証できない。宣言と実際の行動が乖離する可能性は常にある。
Phrona:それはそうですね。でも、仮に宣言が空手形に終わったとしても、空手形を発行したという事実は残る。将来、誰かがその空手形を突きつけることができる。
富良野:公的な言説は、言った瞬間に言った人のものではなくなる、という側面がある。AI企業が公の場で「この課税は検討に値する」と言ったら、それは社会の共有財産になる。撤回するにはコストがかかる。
Phrona:となると、AI企業が政策提言を出すこと自体は——内容の限界はあっても——政策議論のインフラとして一定の機能を果たしている、という評価もできますか。
富良野:一定の機能は果たしていると思います。問題は、それが唯一のインフラになってしまうとき。
知識を作る場所の問題
Phrona:「唯一のインフラ」という言い方、気になりますね。
富良野:今、AIの社会的影響について専門的な知識を生産する場所が、どこにあるかを考えてみてほしいんです。Anthropicは1,000万ドルのEconomic Futures Programを設立して、研究資金を出している。OpenAIは最大10万ドルのフェローシップと100万ドルのAPIクレジットを提供して、ワシントンDCにWorkshopを開設する。
Phrona:両方とも、AIの社会的影響を研究するための資金を自ら出している。
富良野:これは善意からの行為だと思いますよ。でも、構造的に見ると、AIの社会的影響について考える知識のエコシステムが、AI企業の資金で回っている、ということでもある。
Phrona:研究テーマの設定、シンポジウムの議題、誰が招待されて誰が招待されないか。資金を出す側がそこに影響を持つのは、意図するしないに関わらず、構造的に避けられないですよね。
富良野:ハーバーマスが1960年代に「公共圏の構造転換」という本で分析した問題と、奇妙に重なるんです。かつて市民が自由に議論していた公共の場が、商業的利益によって徐々に植民地化されていく、という過程。もちろん当時の文脈とは全然違うんだけど、構造は似ている。
Phrona:AI政策の公共的な議論の場が、AI企業の資金と運営によって提供されている。議論は行われているけれど、議論の場の設計者がAI企業自身である、と。
富良野:しかも、これは大学の研究者にとっても切実な問題なんです。AIの社会的影響を研究しようとすれば、AIシステムへのアクセスが要る、データが要る、計算資源が要る。それを提供できるのはAI企業だけで、研究者はAI企業との関係なしには研究しにくい構造がある。
Phrona:製薬業界と医学研究の関係に似ていますね。製薬会社が臨床試験の資金を出し、研究データを保有していることで、独立した医学的評価が構造的に難しくなる、という問題。
富良野:あの領域では何十年もかけて、利益相反の開示ルールや、公的資金による独立研究の仕組みが作られてきた。AI政策の分野ではまだその蓄積がほとんどない。
Phrona:では、何が必要なんでしょうね。AI企業が出す資金と並行して、企業から独立した知識生産の場を公的に整備する、ということですか。
富良野:それは一つの方向だと思います。ただ、公的機関にAIの技術的な知見が十分にあるかというと、それもまた問題で。知識の非対称性が、ここでも効いてくる。
Phrona:最先端のAIシステムが何をできて何ができないかを本当に分かっているのは、開発企業の内部にいる人たちだけ。外部から検証しようにも、何を検証すべきかの判断自体がAI企業の情報開示に依存している。
富良野:だからこそOpenAIが提案している「インシデント報告制度」や「監査体制」は重要な論点なんですが、それは次の話になりますね。
Phrona:一旦まとめると、こういうことでしょうか。二つの文書の政策提案は知的に充実している。でも、その提案が生まれてくる場——誰がテーブルに座り、何が問われ、何が問われないか——の問題は、提案の中身とは別の層にある。
富良野:そしてその層の問題は、個々のAI企業の善悪の問題じゃない。AI企業が政策を語るという構造そのものに内在している問題です。
Phrona:批判として言うなら、それは「議題を設定する側がAI企業であること」の問題。でも評価として言うなら、「AI企業が議題を公開の場に出していること」の意味は小さくない。
富良野:その両方を同時に見ないと、この現象は正確に捉えられないと思います。批判だけでは建設的じゃないし、評価だけでは構造が見えない。
Phrona:片方の目で限界を見て、もう片方の目で可能性を見る。それが、読み手としての私たちの仕事かもしれませんね。
富良野:そのうえで、次に問いたいのは、これらの文書がもう一つ大きく論じているテーマ——「レジリエンス」という言葉の中に、何が含まれていて何が含まれていないか、という話です。
Phrona:OpenAIの文書の後半は、まるごと「レジリエントな社会の構築」に充てられていますものね。あの言葉の使われ方、私も少し引っかかっていました。
ポイント整理
専門家公共圏の閉域性
両文書の政策議論に参加しているのは経済学者・政策研究者・AI企業の政策チーム。政治的スペクトラムの多元性は確保されているが、AIの影響を最も直接的に受ける当事者(労働者、コミュニティ、途上国市民)は制度的に不在。ハーバーマスの公共圏の基準——影響を受けるすべての人の参加——は満たされていない。
三次元的権力としての議題設定
両文書に共通する「AIは進む、問題は分配」というフレームは、技術の方向性やペースそのものを議論の射程外に置く。ルークスの三次元的権力——何が議題にならないかを決定する力——の問題。ただし、これは意図的な隠蔽ではなく、AI開発企業の存在構造に内在する見えにくさ。
問いにくさと問わなくていいことの区別
技術の方向性への社会的関与は原理的に正当だが、時間スケールの非対称性や安全保障のジレンマなど、実装の構造的困難がある。両文書がこの問いを立てないことには限界と理由の両面がある。
戦略的自己拘束の両義的効果
AI企業が自社に不利な政策選択肢を公にすることは、動機が戦略的であっても政策空間を広げる効果を持つ。公的な宣言は発行者のものではなくなり、将来の検証と拘束の材料となる。
知識生産インフラの偏在
AIの社会的影響に関する研究資金・討議の場・技術へのアクセスがAI企業に集中していることで、知識のエコシステム全体がAI企業の影響下に置かれる構造。製薬業界と医学研究の利益相反問題と構造的に類似。公的に独立した知識生産インフラの整備が課題。
批判と評価の同時視
AI企業の政策提言は「議題設定権力の集中」という構造的限界と「議題の公開による政策空間の拡張」という積極的効果を同時に持つ。片方だけでは現象を正確に捉えられない。
キーワード解説
【公共圏(Public Sphere)】
ドイツの哲学者ユルゲン・ハーバーマスが提唱した概念。私的利害から離れて、市民が自由に意見を交わし公的な問題を議論する社会的空間のこと。政策や法の正統性は、影響を受ける人々がこの公共圏での合理的な討議に参加できることによって担保される、というのがハーバーマスの基本的な考え方。
【公共圏の構造転換(Structural Transformation of the Public Sphere)】
ハーバーマスが1962年の著作で分析した歴史的過程。18世紀に市民社会の中で自律的に機能していた公共的討議の空間が、商業化・メディアの集中・広告産業の影響によって徐々に変質していった、という議論。AI政策の討議の場がAI企業の資金で運営されている状況は、この構造転換の現代版として分析できる。
【三次元的権力(Three-Dimensional Power)】
政治学者スティーヴン・ルークスが提唱した権力分析の枠組み。第一の次元は争点での勝敗を決める力、第二の次元は何が争点になるかを決める力、第三の次元は何が争点にならないかを決める力。第三の次元は最も見えにくく、しばしば権力を行使している側にも自覚されない。AI企業が「技術の方向性そのもの」を議論の射程外に置くのは、この第三の次元の権力作用として分析できる。
【戦略的自己拘束(Strategic Self-Binding)】
自らの将来の行動の選択肢をあえて制限することで、交渉上の立場を有利にしたり、他者からの信頼を確保したりする戦略。ゲーム理論のコミットメント装置の概念に近い。AI企業が自社に不利な課税提案を公に支持することは、将来の規制交渉での立場を制限する代わりに、業界全体の規制環境を自ら関与できる形に整える効果を持つ。
【認識的非対称性(Epistemic Asymmetry)】
ある問題について知識や情報を持つ側と持たない側の間の非対称的な関係。AIガバナンスにおいては、最先端システムの能力・リスク・限界に関する知識がAI開発企業の内部に極度に集中しており、外部からの独立した評価が構造的に困難になっている。この非対称性は、政策議論における実質的な参加能力の格差を生む。
【利益相反の構造化(Structural Conflicts of Interest)】
特定の領域における研究資金・データ・技術アクセスが、その領域の主要企業に集中することで、独立した知識生産が構造的に困難になる状態。製薬業界と臨床研究の関係が古典的な事例。AI政策分野でも、研究資金・APIアクセス・シンポジウム運営がAI企業に依存する構造が、類似の問題を生み得る。