top of page

AIは本当に人間の心を理解できるのか? ──「Centaur」モデルが起こした科学論争を読み解く

更新日:9月1日

ree

シリーズ: 知新察来


◆今回のピックアップ記事:Pascal Biese "Can AI Really Understand How We Think? - Controversial 'Centaur' Model Sparks Fierce Debate" (LLM Watch, 2025年7月5日)


AIが人間の行動を予測することと、認知を理解することは同じでしょうか? この根深い問いが、2025年に一つの研究をきっかけに科学界で大きな論争となりました。研究者たちが開発した「Centaur」という人間認知の基盤モデルが、Nature誌に掲載されるやいなや認知科学者たちから激しい批判を浴びたのです。マックス・プランク研究所の研究チームがMeta社のLlama 3.1言語モデルを大規模な人間行動データで調整し、「人間認知の統一モデル」だと主張した一方で、既存の認知科学者からは「ばかげている」という強烈な反発が寄せられています。


この研究は160の心理実験から1000万件を超える人間の選択データを収集し、自然言語で記述した「Psych-101」というデータセットを構築しました。Centaurはほぼ全ての実験において既存の認知モデルよりも人間の行動をうまく予測し、さらに訓練データにない新しい実験でも汎化能力を発揮したのです。


今回は、富良野とPhronaに、この画期的でありながら論争的な研究について語ってもらいます。




予測と理解のあいだで


富良野:なるほど、Centaurモデルですか。これは面白い状況になってますね。研究者たちが160の心理実験から集めた1000万件の人間行動データを使って、言語モデルを調整した。その結果、既存の認知モデルを上回る予測性能を達成したと。


Phrona:でも、認知科学者たちが猛反発してるのよね。予測できることと理解することって、本当に同じなのかしら?なんだか、囲碁のAlphaGoが人間より強くなったからといって、囲碁の美学や戦略思想まで理解したとは言えないような感じがするわ。


富良野:その通りです。研究者たちは「統一認知理論への第一歩」だと言ってるけれど、実際にはブラックボックスの言語モデルに大量のデータを食べさせただけとも言える。ただ、興味深いのは、このモデルが訓練されていない新しい実験でも人間らしい行動を示したこと。単なる暗記を超えた何かがあるのかもしれません。


Phrona:そこが不思議なところよね。例えば、宇宙船の話だった実験を魔法の絨毯の話に変えても、ちゃんと人間的な反応を見せたらしいの。表面的な物語に惑わされずに、深層にある意思決定の構造を捉えているということ?それとも、言語モデルの豊富な語彙力がうまくマッピングしてるだけなのかしら。


富良野:それが核心的な問いですね。研究チームは、モデルの内部表現が人間の神経活動により近くなったという証拠も示している。脳のfMRIデータと照らし合わせて、確かに調整後の方が人間の脳活動をよく予測できるようになったと。


Phrona:でも待って、それって循環論法じゃない?人間の行動データで訓練したモデルが人間の脳活動により似るようになったって、ある意味当然よね。問題は、それが本当に「理解」なのか、それとも高度な模倣なのかということ。


汎化の謎と知識の本質


富良野:いい指摘ですね。ただ、このモデルの汎化能力は確かに印象的です。二つ選択肢のバンディット問題で訓練したのに、三つ選択肢の問題でも機能した。論理推論のようなまったく新しい領域でも、人間らしい反応を示したとある。


Phrona:汎化というキーワードが気になるわ。人間って、新しい状況に出会った時にどうやって過去の経験を活用するのかしら?私たちは意識的に類推したり、なんとなく似てるからという直感で判断したりする。でもCentaurの場合、そのプロセスがまったく見えないのよね。


富良野:そうなんです。研究者たちも「ブラックボックス性」については認めている。だからこそ、彼らは科学的発見のための道具として使おうと提案している。DeepSeek-R1という別のAIにPsych-101データを分析させて、人間の意思決定戦略を言語で説明させる。そこから新しい認知モデルを作るという試み。


Phrona:なるほど、AIがAIを解釈するのね。でも、それってちょっと危険な気もするわ。人間の研究者が直接データと向き合って洞察を得る過程が、どんどん機械に置き換わっていく。そうすると、人間らしい発想や創造性みたいなものが失われていかないかしら?


富良野:確かにリスクはあります。でも、一方で、これまで人間の研究者だけでは見落としていたパターンを発見できる可能性もある。例えば、1000万件のデータから微細な傾向を見つけ出すのは、人間には現実的に不可能ですから。


Phrona:そうね、規模の問題は重要よね。でも私が引っかかるのは、このアプローチが前提にしている「人間の心」像なの。実験室で測定できる選択行動だけが心なのかしら?感情や直感、文化的背景、身体的な感覚...そういった豊かな人間性が、このモデルには含まれているのかどうか。


認知科学の未来図


富良野:それは深い問題ですね。研究チームも、現在のPsych-101が主に西欧的で高学歴な被験者に偏っているという限界を認めています。今後は、文化的多様性や個人差、発達的変化なども含めたいと述べている。


Phrona:文化的多様性は本当に大事よね。意思決定や認知って、その人が生きてきた社会や価値観に深く根ざしているもの。例えば、個人主義的な社会と集団主義的な社会では、同じ状況でも選択の基準がまったく違ったりする。そういう豊かさを、データと数値だけで捉えられるのかしら。


富良野:そこが、この研究に対する根本的な批判なのかもしれません。認知を「予測可能な行動パターン」として捉える還元主義的アプローチに対して、もっと全人的な視点が必要だという声が上がっている。


Phrona:でも一方で、このCentaurのような取り組みが、従来の認知科学に新しい視点をもたらす可能性も感じるのよね。これまでの実験心理学って、どうしても小さなサンプルサイズで限定的な条件下での研究が多かった。大規模データで見えてくる全体像は、確かに価値があるかもしれない。


富良野:そうですね。認知科学にとっての「ビッグデータ革命」と言えるかもしれません。ただし、量的な拡大が質的な深化につながるかどうかは別問題。人間の心の複雑さや奥深さを、どこまで計算モデルで捉えられるのかという根本的な問いは残ります。


Phrona:この論争を見ていて思うのは、科学における「理解」の定義そのものが問われているということ。予測できれば理解したことになるのか、それとも因果関係やメカニズムが説明できて初めて理解と言えるのか。


富良野:興味深いのは、研究者たちが「認知の基盤モデル」という言葉を使っていることです。これは機械学習でいう基盤モデル、つまり大規模データで事前訓練して様々なタスクに応用できるモデルの概念を、認知科学に持ち込んだ試み。従来の領域特化的なモデルから、より汎用的なアプローチへの転換を目指している。


Phrona:基盤モデルという発想は確かに魅力的ね。でも、人間の心って本当にそんなふうに統一的に捉えられるものなのかしら?私たちって、状況や気分、関係性によってコロコロと変わる存在よね。その揺らぎや矛盾こそが人間らしさなのかもしれないのに。


技術と人文知の対話


富良野:そこが面白いところです。Centaurは確かに人間の行動を予測するけれど、それが人間理解の全てではないという視点は重要です。むしろ、このような技術的成果を出発点にして、人間性について深く考える機会が生まれているとも言える。


Phrona:そうね、技術が人文的な問いを呼び起こすという側面もあるわ。「私たちは何者なのか」「心とは何なのか」という古典的な哲学的問いが、最新のAI研究を通じて新しい角度から照らされている。


富良野:この研究の価値は、結論よりもむしろ、それが巻き起こした議論にあるのかもしれません。認知科学者、AI研究者、哲学者たちが、人間理解の方法論について真剣に議論している。学際的な対話が生まれている。


Phrona:そう考えると、Centaurは一つの問題提起として機能してるのね。完璧な答えではなく、より深い問いへの入り口として。これから認知科学がどう発展していくか、人間とAIの関係がどう変わっていくか、その分岐点に私たちは立っているのかもしれない。


富良野:まさにそうですね。この研究が示唆しているのは、人間理解のアプローチが多様化し、より複層的になっていくということかもしれません。従来の実験心理学、計算論的アプローチ、そして新しいAI技術を組み合わせながら、人間の心の全体像に迫っていく。


Phrona:そのプロセスで大切なのは、技術的な進歩に眩惑されすぎず、人間の豊かさや複雑さを見失わないことよね。Centaurのような研究は確かに興味深いけれど、それだけで人間を語り尽くせるとは思わない。むしろ、新たな謎や疑問を生み出してくれる存在として捉えたいわ。



ポイント整理


  • Centaurモデルの成果

    • 160の心理実験から収集した1000万件の人間行動データで言語モデルを調整し、既存の認知モデルを上回る予測性能を達成。新しい実験でも汎化能力を示した

  • 研究手法の特徴

    • 従来の領域特化的な認知モデルに対して、大規模言語モデルベースの汎用的アプローチを採用。自然言語による実験記述で様々なパラダイムを統一的に扱った

  • 科学界の論争

    • 認知科学者たちから「予測と理解は別物」「ブラックボックスでは科学的洞察が得られない」などの批判が寄せられている

  • 汎化能力の謎

    • 訓練データにない新しい文脈(カバーストーリーの変更、構造的変化、新領域)でも人間らしい行動を示すメカニズムは不明

  • 神経科学的証拠

    • モデルの内部表現が調整後により人間の脳活動と相関するようになったが、これが真の理解を意味するかは議論の余地がある

  • 科学的発見支援

    • AIを使って人間行動を分析し、新しい認知モデル構築を支援するツールとしての可能性を提示

  • 文化的偏向の問題

    • 現在のデータセットは西欧的で高学歴な被験者に偏っており、文化的多様性や個人差の考慮が課題

  • 統一理論への道程

    • 認知科学の長年の目標である「統一認知理論」に向けた一歩か、単なる高性能な予測ツールかで見解が分かれている



キーワード解説


【基盤モデル】

大規模データで事前訓練され、様々なタスクに応用可能な汎用的AIモデル


【Psych-101】

160の心理実験から構築された大規模人間行動データセット


【汎化能力】

訓練時にない新しい状況でも適切に機能する能力


【ファインチューニング】

事前訓練済みモデルを特定タスク用にさらに調整する手法


【QLoRA】

量子化低ランク適応の略。効率的なモデル調整技術


【科学的後悔最小化】

ブラックボックスモデルを参照して解釈可能なモデルを改良する手法


【認知的十種競技】

複数の実験で認知モデルを総合評価する枠組み


【統一認知理論】

人間の認知全体を説明する包括的理論


【神経整合性】

AIモデルの内部表現と人間の脳活動の相関度


【WEIRD問題】

西欧的・高学歴・工業化・富裕・民主的な被験者への偏向問題



本稿は近日中にnoteにも掲載予定です。
ご関心を持っていただけましたら、note上でご感想などお聞かせいただけると幸いです。
bottom of page