top of page

AI判断の落とし穴──なぜChatGPTは経営者を楽観的にしてしまうのか

ree

シリーズ: 知新察来


◆今回のピックアップ記事:José Parra-Moyano et al. "Executives Who Used Gen AI Made Worse Predictions" (Harvard Business Review, 2025年7月1日)


AIが経営判断を変えている今、私たちは何に気をつけるべきでしょうか。300人近い経営者を対象にした興味深い実験が、AIツールの意外な影響を明らかにしました。


ChatGPTに相談した経営者グループは、同僚と議論したグループと比べて、明らかに楽観的な予測を立てるようになったのです。しかも、実際の結果と照らし合わせると、AI相談組の予測精度は下がっていました。一方、人間同士で話し合ったグループは、慎重になりながらも予測精度を向上させていたのです。


なぜAIは私たちを楽観的にし、過信させてしまうのでしょうか。そして、AI時代の賢い判断とは何か。富良野とPhronaの対話を通じて、AIツールとの上手な付き合い方、そして人間の判断力を磨く方法が見えてきます。AIに頼りすぎることなく、でも活用していくための智慧を一緒に考えてみませんか。




AIは楽観主義者を作り出すのか


富良野:ChatGPTに相談した経営者が平均で5.11ドル高い予測を立てて、同僚と話し合った人たちは2.20ドル低い予測になった。この差は結構大きいと思うんです。


Phrona:そうですね。私が気になったのは、AIに相談した人たちが「より確信を持った」という部分です。小数点以下まで予測する人が増えたって。まるでAIが与えてくれる詳細な分析に魅了されて、自分も専門家になった気分になってしまったような。


富良野:ああ、いわゆる「知識の錯覚」ですね。インターネットで何でも調べられるようになって、人は自分がもっと知っているような気になってしまう。AIの場合、それがもっと巧妙というか、相手が人間じゃないから余計に騙されやすいのかも。


Phrona:人間同士だと、誰かが楽観的なことを言っても、別の人が「でも、ちょっと待って」って言ったりしますものね。そういう自然なブレーキがAIとの対話にはない。AIは淡々と分析を示すだけで、感情的な警戒心を持たないから。


富良野:それと、研究で指摘されていた「権威バイアス」も興味深い。ChatGPTが自信満々に詳細な分析を提示するから、つい「すごい分析だ」と思ってしまう。でも、その分析の根拠は結局過去のデータでしかないんですよね。


Phrona:人間って、権威のある情報源からの情報を過大評価しがちですから。特にAIみたいに、膨大なデータを瞬時に処理して見せるものには、つい圧倒されてしまう。でも実際は、そのAIも私たちと同じように、過去の傾向を未来に延長しているだけかもしれません。


人間同士の対話が持つ不思議な力


富良野:逆に人間同士の議論で予測精度が上がったのも面白いですよね。普通、集団心理って危険な方向に行きがちだと思うんですが、この場合は違った。


Phrona:「誰も極端に楽観的に見られたくない」という心理が働いたのかもしれませんね。特に経営者レベルの人たちだと、同僚の前で無邪気な楽観論を展開するのは恥ずかしいと感じるでしょうし。


富良野:ああ、なるほど。ある意味で社会的なプレッシャーが良い方向に作用したと。一人だと冒険的になりがちでも、仲間がいると「現実的に考えよう」となる。これは組織運営でも大事な観点かもしれません。


Phrona:それに、人間同士だと感情的な直感も共有されますよね。「なんとなく怖い」とか「ちょっと胡散臭い」とか。そういう言語化しにくい不安も、話しているうちに表面化してくる。


富良野:実際、バブルの時期って、みんな頭では「おかしい」と分かっていても、一人だと流れに乗ってしまうことが多い。でも冷静な仲間がいれば、「ちょっと待った」と言える。今回の実験は、それと似ているのかも。


Phrona:面白いのは、AIが感情を持たないことが、必ずしも良いことではないということですね。感情って時に邪魔になるけれど、危険を察知するセンサーでもある。AIにはそのセンサーがない。


AIとの付き合い方を考え直す


富良野:この研究を受けて、僕たちはAIとどう付き合っていけばいいんでしょうね。完全に避けるわけにもいかないし、かといって盲信するのも危険。


Phrona:研究者たちが提案している「AIの分析を得てから、人間同士で議論する」というアプローチは現実的ですね。AIの情報収集力を活用しつつ、人間の直感や感情的な警戒心も取り入れる。


富良野:そうですね。AIには「なぜその予測が外れる可能性があるのか」を積極的に聞くのも大事かもしれません。ChatGPTって、聞き方次第でネガティブな要因も教えてくれますから。


Phrona:ああ、それは良いアイデアですね。AIに楽観的な分析をさせるだけじゃなくて、悲観的なシナリオも同時に作らせる。そうすれば、一方的な楽観主義に陥りにくくなりそう。


富良野:それと、この実験が示しているのは、AIツールを使う時の「儀式」みたいなものが必要だということかもしれません。いきなりAIに頼るんじゃなくて、まず自分で考えて、次にAIに相談して、最後に仲間と議論する、みたいな。


Phrona:なるほど、段階的なプロセスですね。それぞれの段階で異なる視点を取り入れることで、バランスの取れた判断ができそうです。自分の直感、AIの分析力、そして仲間の社会的チェック機能。


未来の意思決定はどう変わるか


富良野:でも長期的に見ると、AIがもっと賢くなったら話は変わってくるかもしれませんね。今回使われたのは過去のデータしか持たないChatGPTですが、リアルタイムの情報にアクセスできるAIが出てきたら。


Phrona:そうですね。ただ、その時でも人間の役割は残ると思います。今回の実験で印象的だったのは、人間同士の対話が持つ「校正機能」です。これはAIがどんなに賢くなっても、簡単には代替できないんじゃないでしょうか。


富良野:確かに。AIが提供するのは、あくまで「情報処理の結果」であって、「判断」ではない。最終的な意思決定は、リスクを背負う人間がしなければならない。そして、リスクを背負うからこそ、人間は慎重になったり、感情的になったりする。


Phrona:それに、AIが苦手なのは「文脈」を読むことかもしれません。Nvidiaの株価を予測するにしても、技術的な分析だけでなく、市場の雰囲気、投資家心理、政治的な要因なんかも絡んでくる。そういう複合的な文脈は、やっぱり人間の方が敏感に察知できるのかも。


富良野:そう考えると、AIと人間の協働って、お互いの得意分野を活かす関係性なのかもしれません。AIは情報処理とパターン認識、人間は文脈読解と感情的な警戒心。どちらか一方に偏ると、今回の実験みたいな問題が起きる。


Phrona:最終的には、AIも道具の一つということでしょうか。とても優秀な道具だけれど、使い手次第で毒にも薬にもなる。大切なのは、その道具の特性を理解して、適切に使いこなすことですね。




ポイント整理


  • AI相談は楽観バイアスを生む

    • ChatGPTに相談した経営者は平均5.11ドル高い株価予測を立て、実際の結果との乖離が拡大した

  • 人間同士の議論は慎重さを促進

    • 同僚との話し合いは予測を平均2.20ドル下げ、実際の精度向上につながった

  • AIは過信を助長する

    • AI相談組は小数点以下まで予測する「確信的予測」の傾向が強くなった

  • 権威バイアスと詳細な分析の罠

    • AIの自信に満ちた詳細分析が、利用者の判断力を曇らせる可能性がある

  • 感情の欠如が盲点を生む

    • AIには人間的な警戒心や直感がないため、リスク察知能力に限界がある

  • 社会的チェック機能の重要性

    • 同僚との議論は極端な楽観論を抑制し、現実的な判断を促進する

  • 段階的アプローチの提案

    • 自分の考え→AI分析→人間同士の議論という多段階プロセスの有効性



キーワード解説


【楽観バイアス】

将来の出来事を実際より良く見積もる認知の偏り


【権威バイアス】

権威ある情報源からの情報を過大評価する傾向


【知識の錯覚】

外部情報源にアクセスできることで、自分の知識を過大評価する現象


【確信的予測】

小数点以下まで具体的な数値で予測すること(過信の指標)


【社会的校正】

集団での議論により個人の極端な判断が修正される機能


【感情的警戒心】

論理的分析だけでは捉えきれないリスクを察知する人間の直感


【文脈読解】

数値データだけでなく、状況や雰囲気を総合的に理解する能力


【段階的意思決定】

複数の情報源と視点を組み合わせた多段階の判断プロセス



本稿は近日中にnoteにも掲載予定です。
ご関心を持っていただけましたら、note上でご感想などお聞かせいただけると幸いです。
bottom of page