top of page

AIを「使いこなす」のは誰か──道具の設計思想と、人間の自律性の話

シリーズ: 知新察来


◆今回のピックアップ記事: Kristin Burnham, "Pro-worker AI doesn't just happen. Companies need to act" (MIT Sloan School of Management, 2026年2月9日)

  • 概要: MITストーン・センターの立ち上げパネルでの議論をもとに、労働者の能力を高める「プロワーカーAI(Pro-worker AI)」の設計原則を整理した記事。アセモグル教授はAIが自動化に流れる三つの構造的障壁を指摘し、ザナ・ブチンカ(Zana Buçinca)研究員は「認知的強制機能(cognitive forcing function)」という設計手法を提案。人間がAIに盲目的に依存しないための介入設計が、今まさに問われているとする。



AIは仕事を奪うのか、それとも人間をより有能にするのか。この問いは最近あちこちで聞かれますが、実はその答えは、技術の「性能」よりも「設計思想」によって決まります。


電気工事士が現場で使うAIツールを想像してみてください。過去の無数の事例から異常パターンを検出し、リアルタイムで対処法を提示してくれる。そのAIが「電気工事士の代わりに考える」のか、それとも「電気工事士がより深く考えるための足場になる」のか——この違いは、ツールの賢さとはほとんど関係がありません。


MITのダロン・アセモグル(Daron Acemoglu)教授(2024年ノーベル経済学賞受賞)は、いまのAI開発には構造的な偏りがあると指摘します。自動化へのインセンティブが、人間の能力を引き上げる設計を上回っている、と。では、誰がその設計をするのか。そして、設計者でない私たちは、AI相手にどこまで「自分で考える」ことができるのか。


富良野とPhronaが、この問いをゆっくりとほぐしていきます。


 


そのAI、誰が設計したんだろう


Phrona:アセモグルのこの記事、「Pro-worker AI」という言葉が出てきた瞬間に、「そうじゃないAI」が多いという話なんだな、って思いますよね。


富良野: そうなんですよ。前提に「デフォルトは自動化」がある。放っておくと人間の能力を奪う方向に進む、という読みがベースにある。


Phrona: アセモグルが挙げてる三つの障壁、面白かったです。ビジネスモデルの不整合、汎用設計の限界、AGI志向の引力。三つとも、技術じゃなくて「誰がなんのために作るか」の問題ですよね。


富良野: そこが核心だと思います。技術的にできる・できないじゃなくて、誰がそのAIを設計するのか、誰の利益のために設計するのか、という話。大手のAIベンダーにとって、電気工事士が熟練するかどうかはビジネス上の優先事項じゃない。


Phrona: スケールするほど儲かるモデルだから、一人の職人の技術をどう伸ばすかには関心が向かない。


富良野: 汎用モデルが万能だという幻想が、ドメイン特化型の設計を後回しにさせてる。電気工事士向けのAIと、プランバー向けのAIは、使う知識も文脈も全然違うはずなのに。


Phrona: AGI志向の話も気になりました。「AIが自分でなんでもできるようになる」という夢が、逆に人間の関与を減らす方向に引っ張る、と。


富良野: アセモグルは「AGIの野心はPro-worker AIの敵だ」とまで言ってる。強い言葉ですよね。でも、なるほどとも思う。自律的に動けるシステムを目指すほど、人間が入り込む余地が設計から消えていく。


Phrona: 設計の段階で、人間の場所が消える。



「考えてから見せる」という設計


富良野: もう一人のパネリスト、ブチンカが提案してる「認知的強制機能(cognitive forcing function)」、これは実際にどういうものか知ってました?


Phrona: 名前は初めて聞いたんですが、内容を読んで「あ、わかる」ってなりました。AIが答えを出す前に、ユーザーに「まず自分の仮説を立てさせる」という設計ですよね。


富良野: そう。たとえば医療診断のAIなら、AIの判定を見る前に医師自身に「あなたはどう見立てますか」と聞く画面を挟む。そのひと手間で、AIに丸ごと依存する状態を防ごうとする。


Phrona: UXとしては「不便」を意図的に入れてる。でも、その不便さが思考を守る。


富良野: 摩擦の設計、という感じですよね。スムーズに使えることが必ずしも良いわけじゃない、という発想の転換。


Phrona: 私、これを読んで最初に思ったのが、学校の話なんです。答えをすぐ教えると、生徒は考えなくなる。先に「どう思う?」と聞く先生と、すぐ答える先生では、生徒の思考力の育ち方が全然違う。


富良野: 教育と全く同じ構造ですね。AIが「良い先生」になれるかどうか、みたいな。


Phrona: ただ、摩擦を増やすほど使われなくなるリスクもある。「めんどくさい」って言われたらそれまでで。


富良野: そのバランスが難しい。ブチンカは「段階的なサポート」という言い方もしてて、ユーザーのスキルや課題の難易度に応じてAIの介入レベルを変える、という方向も示唆してます。


Phrona: 一律に摩擦を入れるんじゃなくて、適応的に。それはそれで、また設計の問題に戻ってくる。



依存は、いつ始まるのか


Phrona: でも、認知的強制機能って、使う人が「自分はAIに依存してる」と自覚してないと効果が薄い気もして。


富良野: どういう意味ですか?


Phrona: 仮説を立てさせる画面が出ても、「まあAIが正しいだろうから」と思いながら答えたら、摩擦として機能しない。形式だけ踏んで、実質的には依存してる状態はあり得る。


富良野: ああ、それはある。「手続きとしての思考」になってしまう可能性。儀式として仮説を書くけど、実は信じてない。


Phrona: 依存って、自覚がないまま進行するじゃないですか。カーナビを使いすぎて、道が覚えられなくなった、とかと同じで。


富良野: 使ってる間は便利だから問題に気づかない。でも気づいたときには、もう元に戻れない。


Phrona: AIに関してもそれが起きてると思うんですよね。特に、AIが間違えにくい場面では。AIが9割正しいなら、残りの1割のために自分で考え続ける理由が薄れてくる。


富良野: 合理的な判断として、委ねる。でも、そうやって判断を委ね続けた先で、自分の判断力はどうなっているのか。


Phrona: そこが、怖いというより——なんか、静かに消えていく感じがして。大きな喪失じゃなくて、気づかないうちに薄まっていく。


富良野: 「スキルの侵食」とも呼ばれますね。使わない能力は、じわじわと衰える。


Phrona: そして衰えると、AIへの依存がさらに深まる。悪循環というより、一方通行の坂道。



「自律」はどこにあるのか


富良野: 記事が面白いのは、設計の話と、使う側の話を両方している点で。設計の問題は企業や政策の話だけど、使う側の自律性は、また別の問いになってくる。


Phrona: そうなんですよね。いくら設計が良くても、使う人間の側に「自分で考えようとする意志」がないと、摩擦は意味をなさない。


富良野: でも、その意志を持ち続けることって、今どんどん難しくなってきてる気がする。AIが「答え」を出してくれる環境に慣れると、「問い」を自分で立てることが次第に面倒になっていく。


Phrona: 問いを立てる力、ですよね。これは、答えを出す力より先に衰える気がする。


富良野: それは鋭い。答えは与えてもらえるけど、何を問うべきかは、まだ人間が決めている——と思いたいけど、それもAIに聞いちゃう場合がある。


Phrona: 「今日何食べたい?」をAIに聞く人もいますよね(笑)。


富良野: いや、笑えるようで、笑えない話で。欲求の言語化を外部に委ねていくことが、日常的になっていくとしたら。


Phrona: そこまで来ると、Pro-worker AIの話は、実は職場だけの問題じゃなくなってくる。「どう生きるか」という問いを、誰がどう設計するのか、という話に繋がってくる。


富良野: 民主主義的な言い方をすれば、集団の意思決定のプロセスにも同じ問いが出てくる。でも、その話は今日はここまでにしておきましょうか。


Phrona: そうですね。でも、「設計は誰がするのか」という問いは、職場でも、社会でも、同じように刺さってくる気がします。


 

 

ポイント整理


  • 自動化はデフォルト、拡張は意図的設計

    • 放任すれば、AIは人間の能力を代替する方向に進みやすい。労働者の能力を引き上げるAIは、意図的な設計と政策介入なしには生まれない。

  • 三つの構造的障壁

    • 大手AIベンダーのビジネスモデルは自動化・スケールに最適化されている。汎用モデルは職人的な文脈に対応できない。AGI志向は人間の関与を設計から排除する方向に引っ張る。

  • 「誰が設計するか」が問いの核心

    • 技術的にできるかどうかより、誰の利益のために設計されるかが、AIが労働者に与える影響を決定する。

  • 認知的強制機能:摩擦を意図的に入れる

    • AIの答えを見る前に、ユーザー自身に仮説を立てさせるインターフェースの工夫。スムーズさより思考の保全を優先する、設計の逆転発想。

  • 依存は静かに、一方通行で進む

    • AIへの依存は大きな事件として始まらない。使わない判断力は少しずつ薄れ、それが依存をさらに深める構造になる。

  • 問いを立てる力が先に衰える

    • 答えはAIに委ねられても、何を問うかは人間が決めている——という前提は、すでに揺らいでいる可能性がある。



キーワード解説


【Pro-worker AI(プロワーカーAI)】

労働者の能力を代替するのではなく、拡張・強化することを目的に設計されたAI。単に効率化するだけでなく、使う人のスキルが伸びるように設計されているかどうかが問われる。


【ドメイン特化型AI(Domain-specific AI)】

特定の職種・業界・業務に特化して学習・設計されたAIシステム。電気工事、医療、教育などで必要とされる文脈固有の知識や判断に対応できる。汎用モデルではこうした文脈を捉えきれないことが多い。


【AGI(人工汎用知能)】

Artificial General Intelligence の略。特定のタスクだけでなく、人間のようにあらゆる知的課題を自律的にこなせるAIを指す。現時点では実現していないが、多くの研究機関や企業がこれを目標としている。


【認知的強制機能(Cognitive Forcing Function)】

ユーザーが自動的・直感的に判断してしまうのを防ぐために、意図的に「立ち止まって考えさせる」仕組みをインターフェースに組み込む設計手法。AIの回答を見る前に仮説を書かせる、などが例として挙げられる。


【スキルの侵食(Skill Erosion)】

AIに判断や作業を委ね続けることで、人間がそのスキルを使わなくなり、能力が徐々に低下していく現象。カーナビ依存で道を覚えられなくなる、などが身近な例。



本稿は近日中にnoteにも掲載予定です。
ご関心を持っていただけましたら、note上でご感想などお聞かせいただけると幸いです。
bottom of page