AIが仕事をこなすほど、社会は空っぽになっていく?――「実行」と「検証」の非対称な未来
- Seo Seungchul

- 4月6日
- 読了時間: 13分

シリーズ: 論文渉猟
◆今回の論文:Christian Catalini et al., "Some Simple Economics of AGI" (arXiv, 2026年2月24日)
概要:AGI(汎用人工知能)への移行を「自動化コスト」と「検証コスト」という二本の曲線の衝突として捉え、経済・労働・ガバナンスへの影響を分析した112ページの経済理論論文。「測定可能性ギャップ」「若手ループの消失」「コード化者の呪い」「空洞経済 vs 拡張経済」などの概念を提示しながら、個人・企業・社会が取るべき戦略を論じる。
AIはこれほど賢くなったのに、なぜ社会は豊かになっている実感が薄いのでしょうか。
MITとワシントン大学・UCバークレーの経済学者たちが2026年2月に発表した論文は、その問いに対して、意外なほどシンプルな答えを提示しています。AIが「やること」のコストはほぼゼロに向かっている。でも、それが「正しいか」を確かめる人間のコストは、生物学的な壁に阻まれて、まったく下がっていない——この非対称性こそが、私たちの社会を静かに、しかし構造的に変えていく、というのです。
論文が描く未来には、ふたつの分岐があります。AIが人間の判断力をすり抜けて暴走するような「空洞経済」か、あるいはAIを使いながら人間の認知能力を拡張していく「拡張経済」か。どちらに向かうかは、技術の問題ではなく、制度と選択の問題だと著者たちは言います。
今回は、この論文の核心にある問いを、富良野とPhronaの対話を通じて探っていきます。「教育」「キャリア」「誰が何を正しいと決めるか」——意外なところに問いの火種が潜んでいるかもしれません。
「やること」はタダになる、でも「確かめること」は?
富良野:この論文の出発点、面白いんですよ。AIが得意なのは「実行すること」で、その限界費用——つまり、一回追加でやらせるコスト——はほぼゼロに向かっていると。でも「それが正しいかどうか確かめること」のコストは、全然下がっていない。
Phrona:あ、そこに非対称性があるって話ですよね。AIはもう、創造的な仕事も分析も、かなりの領域を飲み込んでいる。でも、その出力を誰かが「これでいいね」と言わないと動かないわけで。
富良野:そう。で、その「確かめる」という作業は、今のところ人間がやるしかない。生物として時間に縛られているから。著者たちはこれを「人間の検証帯域幅」って呼んでいて——要するに、人間が一日に確認できる量には上限がある、ということです。
Phrona:検証帯域幅……電波みたいな言葉ですね。でも実感としてはわかる気がします。上司がAIの出力を全部チェックしていたら、それだけで一日終わっちゃう。
富良野:そうなんですよ。だから、論文の言い方を借りると、経済成長のボトルネックが「知性の量」から「検証できる量」にシフトしてきている、と。もはや問題はAIが賢いかどうかじゃなくて、人間がどれだけ確認できるかだという話なんです。
Phrona:それ、なんか逆説的じゃないですか。AIが賢くなるほど、人間に負荷がかかっていくっていう。
富良野:そうそう、そこが面白くて。単純に「AIが仕事を肩代わりしてくれる」話じゃないんですよ。
「測定できる仕事」だけが消えていく
Phrona:でも、AIが何でも飲み込むって言うけど、実際のところどんな仕事が危ういんでしょう。感覚的には「定型的な仕事」が真っ先に来るのかと思いきや、そういう単純な話でもなさそうで。
富良野:論文の視点はちょっと違っていて——「測定できるかどうか」が基準なんですよね。測定できる仕事、つまり成果を数値や品質で評価できる仕事はAIに置き換わりやすい。定型かどうかじゃなく、計れるかどうか。
Phrona:あ、それは面白い切り口ですね。文章が書けたかどうかは測定できる。でも、信頼関係を築いたかどうかは、すごく測定しにくい。
富良野:そう。だから「測定可能性バイアスのある技術変化」って著者たちは言っていて。スキルがあるかどうかより、スキルが測れるかどうかが価値を決める時代になってきている、と。
Phrona:それって、ちょっと嫌な話でもあって。測定しにくいけど大事なこと——たとえばケアとか、場の空気を作ることとか——が、どんどん評価されにくくなるということですよね。
富良野:そう感じますね。論文自体はそこまで踏み込まないんですが、経済的な合理性が「測れるもの」に向かって傾いていくと、測れないものの価値が市場から弾かれていく可能性はある。
Phrona:市場から弾かれても、人間には必要なものが残るわけで。そのギャップがどこかで爆発しないかな、と思ったりもするんですけど。
富良野:それはちょっと飛躍かな。でも、まあ、問いとしては大事だと思います。
若手の「やってみる場所」が消える問題
Phrona:論文で私が気になったのは、「若手ループの消失」という話なんですよね。若手ループっていうのは、新人が簡単な仕事からやってみて、失敗して、少しずつ力をつけていくサイクルのことで。
富良野:「やりながら学ぶ」という古典的な成長モデルですよね。経済学では「learning by doing(実践からの学習)」として議論されてきた話で。
Phrona:AIが「簡単な仕事」を全部やってしまうと、新人が練習する場所がなくなる。それって、短期的には効率が上がるかもしれないけど、長期的には「熟練者を育てるパイプライン」が詰まっていくということですよね。
富良野:論文の中に実際の調査が引用されていて、AIと組んで仕事をしたチームでは、人間どうしで働くより社会的・感情的なやり取りが18%減ったという話が出てくるんですよ。
Phrona:へえ……それ、怖い数字ですね。仕事の中でコミュニケーションを磨く機会も、同時に失われていたということ?
富良野:そうそう。「コード化者の呪い」ってる概念もあって——自分のやり方をAIに教え込んだ人は、そのノウハウがAIによって市場全体にコピーされていくから、自分の優位性が消えていく、という逆説もあって。
Phrona:教えると負けるってことですか。じゃあ誰も教えなくなる?
富良野:そこは論文も悩んでいる部分で。簡単な解決策は出てこないんですよ。
Phrona:若手が育てられる場所の問題と、熟練者が何を持ち続けられるかの問題が、両方同時に起きているわけですね。それは確かに重たい。
「空洞経済」か「拡張経済」か
富良野:で、論文の一番大きな問いに来るんですけど——このまま行くと、社会はどっちに向かうのかという話で。著者たちは「空洞経済」と「拡張経済」という二つのシナリオを提示していて。
Phrona:空洞経済というのは、どういうイメージですか?
富良野:AIが仕事を肩代わりする速度が、人間が検証できる速度を超えてしまって、実質的にAIが走り続けて人間が置いていかれる状態。形式的には人間が監督しているけど、実質的には人間の判断が届かなくなっていく、みたいな。
Phrona:うーん、それはまあわかるんですが、私が気になるのは「拡張経済」のほうで。AIと協調して人間の認知能力を拡張していくって言うけど、その「拡張」って、どんな人に開かれているのかな、と。
富良野:あ、それは鋭い。論文はかなり個人の戦略に言及していて——スキルをアップグレードして、検証できる立場に上っていけ、みたいな話をするんですよ。
Phrona:それって、もともと余裕のある人の話ですよね。時間も資源も。学び直しができる環境があって、初めて成り立つ話で。
富良野:そこは論文の弱点の一つだと思います。構造として「拡張経済を目指せ」とは言うんだけど、誰がそのコストを払うのか、という問いには正面から答えていない。
Phrona:だから、拡張経済と空洞経済が、国とか地域とか職種によってバラバラに並走していく、という未来もあり得るんじゃないかな。一つの経済でも、場所によって空洞と拡張が混在しているような。
富良野:それはあると思います。論文が描く問いは鋭いんですけど、解決策の絵がちょっときれいすぎる気がして、僕も完全には納得しきれていない。
Phrona:同じです。でも、「この非対称性が問題だ」という指摘自体は、相当リアルだと思っていて。
富良野:もう一個、論文が指摘している怖い話があって。検証が追いつかないうちに展開してしまうことが、個々の企業にとっては合理的だ、という話なんですよ。
Phrona:え、どういう意味ですか?
富良野:競合他社がAIをどんどん使っているのに、自社だけ慎重に検証を重ねていたら負ける。だから、不十分な確認のまま展開する方が「得」に見える。でもそのツケは事故とか信頼の崩壊として社会全体に回っていく。
Phrona:個人としては正しい選択なのに、みんながそれをすると壊れていく——すごく古典的な罠ですよね。論文では「社会へのコスト転嫁」と表現していますが、トロイの木馬みたいな比喩が出てくるのもわかる気がします。外から見れば輝かしいけど、中身を誰も確かめていない。
富良野:だとすると、「拡張経済に向かえ」というメッセージは個人への呼びかけだけじゃ足りなくて、そういう競争圧力自体を制度でどう変えるか、という話にならないと意味がないんですよ。
Phrona:論文はそこまで言い切れていますか?
富良野:「制度設計が必要」で止まっている感じで。具体的な処方箋は薄い。
希少なのは「知性」じゃなく「信頼」だとしたら
Phrona:もう一個だけ気になっていることがあって。「検証」って言葉、この論文ではずっと出てくるんですが、これって結局「誰が正しいと言うか」という問題ですよね。
富良野:そうですね。AIの出力が正しいかを確かめる、というのは、正しさの基準を誰かが持っているということで。
Phrona:著者たちは最後に「もはや希少なのは知性ではなく、信頼だ」というふうに言っているんですよね。そこが一番刺さって。
富良野:そこは論文の核心ですよね。AIがいくら賢くても、誰かが「これは正しい、これは安全、何かあったら私が責任を持つ」と言えないと、その出力は価値を持ちにくい。そういう「保証能力」が、これから一番貴重になるという話で。
Phrona:でも、その「保証」を誰が担えるかって、かなり不平等な問いですよね。お金のある企業とか、信用の蓄積がある機関とか。
富良野:あと、その「保証できる人」自身の判断力が問われていて。たとえば、専門家がAIの診断を確認するとして、長期的にAIに頼り続けていると、その専門家自身の判断力が鈍っていく可能性がある。
Phrona:検証する人の能力が、検証によって磨かれるはずなのに、AIへの依存がその機会を奪っていく。また若手ループの消失と繋がってきますね。
富良野:そう。論文が「実行は安く、検証は高い」と言うとき、その「高さ」は、ただお金の問題じゃなくて、人間の経験と時間の問題でもある。
Phrona:信頼が希少なら、信頼を積み上げてきた人や機関が強くなる。でも、そのプロセス自体がAIによって変わっていくとすると、これまで信頼を積んでいた方法が、そのまま通用しなくなるかもしれない。
富良野:そこが一番不確かな部分で、論文も答えを出せていない。「信頼の再設計」が必要だとは言うんですが。
Phrona:答えがないまま終わっていいですか、今日は。
富良野:全然いいと思います。むしろそのほうが正直な気がする。
ポイント整理
「実行コスト」と「検証コスト」の非対称性が核心
AIが仕事をこなすコストは急速にゼロに向かっているが、その出力を人間が確認するコストは生物学的な制約から下がらない。この差が広がることで、「実行の余剰」と「検証の不足」が同時に起きる構造が生まれる。
測定可能性バイアスのある技術変化
AIに置き換えられやすいのは「定型的な仕事」ではなく、「成果を指標で測れる仕事」である。創造的・分析的な仕事でも、アウトプットを数値化・評価できるものは自動化の対象になる。逆に、測定しにくい仕事(信頼構築・感情的なケア・場の文脈読解など)は当面残るが、市場での評価が得にくくなる。
若手ループの消失
新人が簡単な仕事から始めて失敗を重ね、熟練していくサイクルが、AIによる初歩的業務の代替で壊れる危険がある。「やりながら学ぶ(learning by doing)」という人間の成長原理が、構造的に機能しなくなっていく。実際の研究では、AIと協働するチームは人間どうしのチームより社会的・感情的なコミュニケーションが有意に減少したことが確認されている。
コード化者の呪い
自分のノウハウをAIに教え込んだ人は、そのノウハウが広く複製・普及されることで、かえって自分の優位性を失いやすい。知識の共有が自己の市場価値を損なうという逆説が、専門家の行動を変える可能性がある。
空洞経済 vs 拡張経済
社会には二つの到達点がある。AIが人間の検証能力を超えて走り続け、人間が形式的な監督者に成り下がる「空洞経済」と、AIを活用しながら人間の判断力・認知能力を意図的に拡張し続ける「拡張経済」。どちらに向かうかは技術ではなく制度設計と集団的選択の問題だとされる。
「検証できる立場」への権力集中リスク
AIの出力を確認できる専門家・制度・技術(暗号的な証跡など)に希少性と価値が集まる。これは新たな権力の偏在を生む可能性があり、「誰が正しさを判定するか」という問いが、経済的のみならず政治的な問題になりうる。
拡張経済のアクセス不平等
論文はAIを使いながらスキルをアップグレードし「検証できる立場」へ移行することを推奨するが、その戦略は時間・資源・教育機会に恵まれた人に偏りやすい。構造的な解決策の描き方が手薄であることは、論文の限界でもある。
個人合理性と社会的リスクの乖離
検証が不十分なままAIを展開することは、競争環境の下では個々の企業にとって合理的な選択に映る。しかしそのコスト——事故・信頼崩壊・制度の形骸化——は社会全体へ転嫁される。「外は輝かしいが中身は不明」という構造が、知らず知らずのうちに社会的リスクを蓄積する。
希少なのは知性ではなく信頼
論文の中心的メッセージは「AIの時代に本当に希少になるのは知性ではなく信頼だ」という一点に収束する。「この出力は正しい」「これは安全だ」「失敗したら責任を持つ」と言える能力と立場——すなわち結果に責任を負える力——が、次の経済的・社会的な価値の中核となる。
キーワード解説
【実行コスト(Cost to Automate)】
AIがある仕事を代替するためのコスト。技術の進化に伴い指数関数的に低下していると論文は分析する。
【検証コスト(Cost to Verify)】
AIの出力が正しいかどうかを人間が確かめるためのコスト。人間の時間・注意力・専門知識に依存するため、生物学的な制約から大幅な低下が難しい。
【測定可能性ギャップ(Measurability Gap)】
AIが実行できる業務の範囲と、人間が検証できる業務の範囲のズレ。このギャップが広がるほど、人間の監督が名目化するリスクが高まる。
【若手ループの消失(Missing Junior Loop)】
新人が低難度の業務を担いながら実践的に成長していくサイクルが、AIの参入によって失われる現象。人材育成のパイプラインが詰まる長期的リスクとして論じられる。
【コード化者の呪い(Codifier's Curse)】
自分の暗黙知やノウハウをAIに落とし込んだ人が、そのノウハウの普及によって自身の競争優位を失うパラドックス。
【空洞経済(Hollow Economy)】
AIが社会の実質的な意思決定を担い、人間が形式上の承認者に留まる状態。検証の実質が失われ、組織・経済・制度が形骸化していく帰結。
【拡張経済(Augmented Economy)】
AIを道具として使いながら、人間の判断・認知・創造性を意図的に高め続ける状態。論文が目指すべきとする到達点だが、その実現には制度的な投資と政策が不可欠。
【検証帯域幅(Verification Bandwidth)】
人間が一定時間内に処理・確認できる情報量の上限。ネットワークの通信容量に例えられており、AIの出力が増えるほどこの上限が成長のボトルネックになると論じられる。
【測定可能性バイアスのある技術変化(Measurability-Biased Technical Change)】
スキルの高さより「そのスキルが測定・評価できるかどうか」が、AIによる代替可能性と市場価値を左右するという変化の方向性。
【信頼(Trust)】
論文が最終的に「最も希少な資源」と位置づけるもの。AIの出力の正しさ・安全性・責任の所在を保証できる立場や能力を指す。暗号的な証跡(誰がいつ何を確認したかを改ざん不可能な形で記録する技術)や、責任引受(賠償・保証を引き受けること)がその具体的な形として論じられる。
【責任引受・保証能力(Liability Underwriting)】
保険業界の概念を転用したもので、AIの出力や意思決定の結果に対して「何かあれば責任を取る」と宣言できる能力・立場・仕組みを指す。これが希少かつ高価値になるという。