OpenAIの「信頼崩壊」が語るもの――イリヤ・サツケバーの証言が明かした組織の亀裂
- Seo Seungchul

- 2025年12月12日
- 読了時間: 16分

シリーズ: 知新察来
◆今回のピックアップ記事:"Ilya Sutskever pushes back against Musk in OpenAI lawsuit" (CTecg, 2025年11月2日)
概要:OpenAI共同創業者イリヤ・サツケバーが、イーロン・マスクによるOpenAI訴訟の証拠開示で行った証言録取と提出した52ページのメモが公開された。サム・アルトマンCEOの解任劇の背景にあった、継続的な嘘と操作、経営陣の分断、そしてAnthropicとの合併構想が明らかになり、AI企業のガバナンス問題が改めて注目を集めている。
2023年11月、わずか5日間でサム・アルトマンCEOの解任と復帰が起こったOpenAIの混乱は、AI業界史上最大の騒動として記憶されている。あのとき、何が本当に起きていたのか。共同創業者であり元チーフサイエンティストのイリヤ・サツケバーが、イーロン・マスクによる訴訟の証拠開示手続きで行った約10時間の証言録取と、52ページに及ぶメモが、ついにその内幕を明るみに出した。
そこに描かれていたのは、CEOの嘘と操作、経営陣の分断、そして取締役会とAnthropicとの合併構想という驚くべき選択肢だった。しかしこの騒動を単なる権力闘争として片付けてしまうのは、何かを見落としているのではないか。
富良野とPhronaは、この証言が浮き彫りにした組織の構造的矛盾に注目する。ビジョンと良心、カリスマと慎重さ、スピードと安全性――対立する価値観が共存する組織は、どこで綻びるのか。そして、最先端のAI企業が直面するガバナンスの難しさは、私たちにどんな問いを投げかけているのだろうか。
証言が明かした「信頼の崩壊」
富良野:イリヤの証言録取が公開されて、OpenAIであのとき何が起きていたのか、ようやく輪郭が見えてきましたね。52ページのメモって、相当な覚悟で書いたんでしょうね。
Phrona:10時間の証言って、すごいですよね。しかもその中で、サムが嘘をつき続けていた、経営陣を互いに対立させていた、取締役会の監視を不可能にしていたって、かなり踏み込んだ告発をしてる。イリヤって、もともとすごく慎重で誠実な人だと思ってたから、ここまで言い切るのは相当なことがあったんだろうなって。
富良野:そう。証言の核心は、アルトマンの行動パターンを「継続的な嘘と操作」って表現してるところなんですよ。これ、単発の失言とか判断ミスじゃなくて、構造的な問題だと言ってる。取締役会がCEOを信頼できなくなったら、もう組織として機能しないですよね。
Phrona:ガバナンス、つまり組織を適切に監督して方向づける仕組みが、完全に機能不全に陥ってたってことですよね。でもさ、OpenAIって非営利団体が営利企業を監督するっていう変わった構造だったでしょ。その複雑さも、混乱を大きくした気がする。
富良野:まさに。営利追求と公共的使命のバランスをとろうとした設計が、かえって権限の所在を曖昧にしてしまった。取締役会は公共の利益を守る立場だけど、CEOは急成長する企業を率いてる。その緊張関係が、アルトマンのやり方と衝突したんでしょうね。
Phrona:イリヤが1年以上もミラ・ムラティさんと密かに計画してたっていうのも、組織の深刻さを物語ってますよね。普通、そんなに長い時間かけて解任を準備するって、よっぽどですよ。
富良野:そうなんです。しかもミラは当時のCTO、つまり技術部門のトップ。イリヤはチーフサイエンティスト。この二人が連携してアルトマン解任に動いたっていうのは、技術や研究の側から見て、もう我慢できない状況だったんでしょうね。
Anthropicとの合併構想という「リセット案」
Phrona:でも、この証言で一番びっくりしたのは、取締役会がAnthropicとの合併を本気で検討してたっていう部分。しかもダリオ・アモデイをCEOにするって案まであったんですよね。
富良野:これ、ものすごく象徴的なんですよ。Anthropicって、もともとOpenAIから分裂して生まれた会社でしょ。ダリオ・アモデイたちは、OpenAIのやり方に疑問を持って出ていった。それがまた合流する可能性を探るって、取締役会はいったんすべてをリセットするくらいの覚悟だったってことです。
Phrona:でも結局、実現しなかった。それはガバナンスをめぐる対立が理由だったって。
富良野:そうなんです。Anthropicは最初から、より慎重で透明性の高いガバナンス構造を重視してた。一方、OpenAIは急速な成長とビジネス展開を優先してきた。その根本的な価値観の違いが、合併を不可能にしたんでしょうね。
Phrona:つまり、Anthropicっていう存在自体が、OpenAIの問題を映す鏡みたいになってたんだ。元は同じ場所から生まれたのに、違う道を選んだ二つの組織が、もう一度交わりそうになって、でも結局交わらなかった。
富良野:まさに。この合併構想が浮上したこと自体が、OpenAIのガバナンスがどれだけ行き詰まっていたかを示してるんですよ。普通、競合企業との合併なんて検討しないでしょ。それを真剣に考えたってことは、もう内部だけでは解決できないと判断したってことです。
Phrona:でも、結果としてサムは復帰して、取締役会のほうが大きく変わった。700人近い従業員がサムの復帰を求めて辞職をちらつかせたんですよね。これって、どう見ればいいんでしょう。
富良野:従業員の視点からすれば、サムは成長を牽引してきたカリスマだった。彼がいなくなれば、会社の勢いが止まると感じたんでしょう。でも取締役会の視点からすれば、まさにそのカリスマ性が問題だった。彼の強いリーダーシップが、監督機能を無力化していたわけですから。
Phrona:カリスマって、組織にとっては諸刃の剣なんですね。人を引きつけて、大きなことを成し遂げる力がある一方で、その力が強すぎると、誰も止められなくなる。
ブロックマンメモと利害関係の複雑さ
富良野:もう一つ注目すべきは、グレッグ・ブロックマンに関する別のメモの存在です。これも裁判所が開示を命じてる。
Phrona:グレッグって、OpenAIの共同創業者で社長ですよね。彼にも何かあったんですか。
富良野:証言によれば、ダリオ・アモデイがグレッグを取り除いて、研究部門の支配権を固めようとしてたって話が出てくる。しかもミラが、サムがミラとダニエラ・アモデイ――ダリオの妹でAnthropicの共同創業者――を対立させようとしたって、イリヤに伝えてたらしい。
Phrona:わあ、複雑……。サムがミラを操って、ダニエラと対立させようとして、でもダリオはグレッグを排除しようとして、そしてイリヤとミラはサムを解任しようとしてた。もう誰が誰を信頼してたのか、わからなくなりますね。
富良野:それが問題の本質なんですよ。組織の中で、信頼関係がバラバラに壊れていた。ガバナンスっていうのは、最終的には人と人の信頼で成り立ってる。その信頼が失われたら、どんなに立派な規則や構造があっても機能しないんです。
Phrona:でも、裁判所がイリヤに対して、OpenAIでの持ち株について証言するよう命じたのは、なぜなんでしょう。
富良野:それは、イリヤの証言が経済的な利害に影響されてないかを確認するためです。もしイリヤがOpenAIの株を大量に持っていれば、マスクの訴訟でOpenAIが不利になると、自分も損をする。だから証言が偏るかもしれない、と原告側は主張してるんです。
Phrona:つまり、証人の客観性を測るために、お金の流れを見ようとしてるんですね。でもイリヤは、それはプライバシーの侵害だって反発してる。
富良野:そうです。イリヤは、マスク側の要求は行き過ぎだって主張してるし、裁判所も一部は支持してる。ただ、ブロックマンメモの提出と、追加の証言録取は認められた。つまり、まだ明らかになってない情報がたくさんあるってことです。
ビジョンと良心の対立
Phrona:この一連の出来事を見てると、サムとイリヤって、ある意味で対照的な存在だったのかなって思うんです。サムは現実をねじ曲げてでも前に進むビジョンの人で、イリヤは安全性と真実を守ろうとする良心の人。
富良野:それ、すごくいい見方ですね。サムは批判もあるけど、GPT-5だとかエージェントシステムみたいな変革的な技術を実現しようとしてる。一方、イリヤは慎重さを貫いたけど、それが最先端の開発を遅らせたかもしれない。
Phrona:OpenAIって、まさにその二つの力がぶつかり合う場所として生まれたんでしょうね。ビジョンと良心、カリスマと慎重さ。どっちも必要だけど、どっちかだけじゃダメで、でも両立させるのはすごく難しい。
富良野:まさに。しかもAIの開発って、スピードを上げれば上げるほど、リスクも高まる。でもスピードを落としすぎると、競争に負けて、結局は安全性を確保するリソースも失われる。この矛盾を、どう制度的に調整するかっていうのが、OpenAIのガバナンス問題の核心だったんですよ。
Phrona:でも結果として、ビジョンの側が勝った。サムは復帰して、取締役会は入れ替わった。イリヤは結局、OpenAIを去って、Safe Superintelligence――安全な超知能っていう会社を立ち上げた。これって、OpenAIがもう、良心の側を選ばないって決めたってことなのかな。
富良野:そう見ることもできるし、逆に言えば、良心の側が独立せざるを得なかったとも言えます。イリヤのSSIは、評価額320億ドルで30億ドル以上を調達してる。GoogleやNVIDIAも出資してる。つまり、慎重なアプローチにも、ちゃんと市場は価値を見出してるんですよ。
Phrona:じゃあ、OpenAIとSSI、それにAnthropicもあって、結局それぞれが違うアプローチでAIを開発していく、っていう形に落ち着いたんですね。競争しながらも、多様性が保たれてる。
富良野:そうなんです。一つの組織の中で二つの価値観を統合できなかったけど、業界全体としては複数のアプローチが並存してる。これはある意味、健全なのかもしれません。
訴訟が暴く、歴史の断片
Phrona:でも、なんでこの証言が今になって出てきたんでしょう。2023年の出来事ですよね。
富良野:それは、イーロン・マスクによる訴訟の証拠開示手続きのおかげなんです。マスクはOpenAIの初期支援者だったけど、OpenAIが非営利から営利重視に転換したことに反発して、訴訟を起こした。その過程で、内部文書や証言の開示が命じられて、こうした情報が出てきたんですよ。
Phrona:つまり、訴訟が歴史を明らかにする装置になってるんだ。当事者は出したくないだろうけど、裁判所が強制的に開示させる。
富良野:まさに。しかも、この情報は今後のAI規制やガバナンスの議論で、重要な参照点になるでしょう。どういう組織構造が機能不全に陥るのか、どういう兆候を見逃してはいけないのか、具体的な事例として残る。
Phrona:そう考えると、この混乱も無駄じゃなかったのかな。OpenAIの失敗から、他の組織が学べるっていう意味で。
富良野:そうですね。ただ、これは失敗っていうより、成長の痛みだったのかもしれない。OpenAIは非営利として始まって、でもビジネスとしても成長しようとした。その過程で、矛盾が露呈した。でもこれ、AI業界全体が直面してる問題なんですよ。
Phrona:公共性と収益性、安全性とスピード、オープンさと競争力。どれも大事だけど、全部を同時に満たすのは、ものすごく難しい。
富良野:だからこそ、OpenAIの経験は貴重なんです。最先端を走ってる組織だからこそ、誰も解決してない問題にぶつかる。その試行錯誤を見ることで、私たちも学べる。
残された問い
Phrona:でも、まだ明らかになってないことも多いんですよね。ブロックマンメモも、これから開示されるわけだし。
富良野:そうです。しかも、イリヤの52ページのメモと、ブロックマンメモが一致する内容だったら、さらに信憑性が高まる。逆に矛盾してたら、また新しい疑問が生まれる。
Phrona:この騒動、まだ完全には終わってないんですね。法廷で、少しずつ真実が明らかになっていく。
富良野:ええ。そして、その真実は単なるスキャンダルじゃなくて、AI時代の組織がどうあるべきかっていう、もっと大きな問いにつながってる。
Phrona:信頼って、一度壊れると元に戻すのはすごく難しい。でも、信頼がなければ、どんな優れた技術も、どんな大きなビジョンも、結局は崩れてしまう。
富良野:そうなんです。OpenAIの騒動が教えてくれるのは、結局、技術よりも制度よりも、人と人の信頼関係が一番大事だってことかもしれませんね。
Phrona:それは、AIの時代になっても変わらない、人間らしい真実なのかも。
ポイント整理
イリヤ・サツケバーの証言が明かした核心的事実
継続的な嘘と操作のパターン: イリヤは52ページのメモと約10時間の証言で、サム・アルトマンが経営陣を互いに対立させ、重要な情報を隠し、意図的に混乱を作り出すことで、取締役会の監督機能を無力化していたと主張している。これは単発の問題ではなく、構造的なパターンだったという指摘が重要である。
1年以上の解任計画: イリヤは当時CTOだったミラ・ムラティと1年以上かけて密かにアルトマン解任を計画していた。これは組織内部の問題が深刻かつ長期的だったことを示している。技術部門のトップ二人が連携して解任に動いたという事実は、技術・研究側からの深刻な懸念があったことを物語る。
Anthropicとの合併構想: 取締役会は危機のピーク時に、OpenAIとAnthropicの合併を真剣に検討し、Anthropic共同創業者ダリオ・アモデイを統合後のCEOにする案まで浮上していた。Anthropicはもともと、OpenAIからガバナンスや安全性をめぐる意見の相違で分裂した組織であり、その二つが再統合を検討したことは、OpenAIの取締役会が組織を根本的にリセットする覚悟を持っていたことを示す。しかし、ガバナンスをめぐる対立により合併は実現しなかった。
ブロックマンメモと利害関係の複雑さ
第二のメモの存在: グレッグ・ブロックマン(共同創業者・社長)に関する別のメモの存在が明らかになり、裁判所はこれの提出を命じている。証言によれば、ダリオ・アモデイがブロックマンを排除して研究部門の支配権を固めようとしていたという話や、アルトマンがミラとダニエラ・アモデイ(ダリオの妹、Anthropic共同創業者)を対立させようとしたという話が浮上している。
経済的利害と証言の客観性: 裁判所はイリヤに対し、OpenAIでの持ち株について証言するよう命じた。これは、イリヤの証言が経済的な利害に影響されていないかを確認するための措置である。イリヤはプライバシー侵害だと反発したが、裁判所は追加証言とブロックマンメモの提出を認めた。
ガバナンス構造の矛盾と機能不全
非営利と営利のハイブリッド構造の限界: OpenAIは非営利団体が営利企業を監督するという独特の構造を採用していた。公共の利益を守る使命と、急成長するビジネスの要請との間で、権限の所在が曖昧になり、緊張関係が高まった。この構造的矛盾が、アルトマンのリーダーシップスタイルと衝突したときに、組織的危機を招いた。
従業員の反発と取締役会の孤立: アルトマン解任後、約700人の従業員が辞職をちらつかせて復帰を要求した。これは従業員から見たアルトマンのカリスマ性と、取締役会の視点の乖離を示している。従業員にとってアルトマンは成長の推進者だったが、取締役会にとってはそのカリスマ性こそが監督機能を無力化する要因だった。
ビジョンと良心の対立という構造
二つの価値観の衝突: サム・アルトマンは「現実をねじ曲げてでも変革的技術を実現する」ビジョンの体現者であり、イリヤ・サツケバーは「安全性と真実を守る」良心の守護者だった。OpenAIはこの二つの力がぶつかり合う場所として生まれたが、組織内での統合には失敗した。
分岐による多様性の確保: イリヤはOpenAI退社後、Safe Superintelligence(SSI)を設立し、評価額320億ドルで30億ドル以上を調達。GoogleやNVIDIAも出資しており、慎重なアプローチにも市場価値があることを示している。OpenAI、SSI、Anthropicが異なるアプローチでAI開発を進める構造は、一つの組織内での統合には失敗したが、業界全体としては健全な多様性を生み出している可能性がある。
訴訟が歴史を明るみに出す役割
証拠開示の力: この情報が公になったのは、イーロン・マスクがOpenAIを相手取って起こした訴訟の証拠開示手続きによる。マスクは初期支援者だったが、OpenAIが非営利から営利重視に転換したことに反発して提訴した。訴訟は、組織が自発的には公開しない内部文書や証言を強制的に明るみに出す装置として機能している。
今後のAIガバナンスへの影響: この事例は今後、AI規制やガバナンスの議論において重要な参照点となる。どういう組織構造が機能不全に陥りやすいのか、どういう兆候を見逃してはいけないのか、具体的な学習材料として残る。OpenAIの経験は「失敗」というより「成長の痛み」であり、最先端を走る組織だからこそ遭遇する未解決の問題への試行錯誤である。
信頼という根本的基盤
信頼の崩壊がガバナンスの崩壊: どれほど優れた規則や構造があっても、人と人の信頼関係が失われれば、ガバナンスは機能しない。OpenAIの危機は、技術論や戦略論ではなく、最終的には信頼の崩壊という人間的な問題だった。
未完の物語: ブロックマンメモをはじめ、まだ明らかになっていない情報が多く残されている。法廷での証拠開示が進むにつれ、さらに詳細が明らかになる可能性が高い。この騒動は単なるスキャンダルではなく、AI時代の組織がどうあるべきかという根本的な問いを投げかけている。
キーワード解説
【イリヤ・サツケバー(Ilya Sutskever)】
OpenAI共同創業者、元チーフサイエンティスト。深層学習の権威で、GPTシリーズの開発に中心的役割を果たした。2023年のアルトマン解任劇では中心的役割を担ったが、後に後悔を表明。現在はSafe Superintelligence(SSI)を設立し、より慎重なAI開発を追求している。
【サム・アルトマン(Sam Altman)】
OpenAI CEO。スタートアップインキュベーターY Combinatorの元代表で、カリスマ的リーダーシップとビジョンでOpenAIを急成長させた。一方で、本証言では経営陣の操作や情報隠蔽が指摘されている。
【ガバナンス(Governance)】
組織を適切に監督し、方向づけ、統制する仕組み。OpenAIの場合、非営利団体の取締役会が営利企業を監督するという独特の構造が、機能不全の一因となった。
【証言録取(Deposition)】
訴訟の証拠開示手続きにおいて、証人が宣誓のもとで行う証言。裁判前に事実関係を明らかにするために行われる。イリヤは約10時間の証言録取を行い、52ページのメモも提出した。
【Anthropic】
2021年にOpenAIから分裂して設立されたAI企業。ダリオ・アモデイとダニエラ・アモデイ兄妹らが創業。より慎重で透明性の高いAI開発とガバナンスを重視し、Claudeという対話型AIを開発している。
【グレッグ・ブロックマン(Greg Brockman)】
OpenAI共同創業者・社長。アルトマン解任時に取締役議長の職を解かれ、抗議のため一時的に休職した。技術開発において重要な役割を果たしてきたが、本証言では彼をめぐる権力闘争の存在も示唆されている。
【ミラ・ムラティ(Mira Murati)】
OpenAI元CTO(最高技術責任者)。アルトマン解任時に一時的にCEO代行を務めた。イリヤと1年以上にわたり解任計画を共同で進めていたとされる。2024年9月にOpenAIを退社し、新ベンチャーThinking Machineを設立。
【ダリオ・アモデイ(Dario Amodei)】
Anthropic共同創業者・CEO。元OpenAI研究担当副社長。安全性と透明性を重視するアプローチを掲げ、OpenAIから分裂してAnthropicを設立した。危機時にはOpenAIとの合併とCEO就任も検討されていたという。
【Safe Superintelligence(SSI)】
イリヤ・サツケバーがOpenAI退社後に設立したAI企業。評価額320億ドルで30億ドル以上を調達し、GoogleやNVIDIAも出資。安全な超知能の開発を目指し、より慎重なアプローチを採用している。
【フィデュシャリー・デューティー(Fiduciary Duty)】
受託者責任。取締役が組織や株主に対して負う、誠実かつ慎重に行動する法的義務。OpenAIの取締役会は、CEOを信頼できなくなったことで、この責任を果たせなくなったと判断した。
【証拠開示(Discovery)】
訴訟の当事者が、裁判前に相手方から証拠や情報を入手する手続き。マスクの訴訟における証拠開示により、OpenAI内部の文書や証言が公になった。
【非営利・営利ハイブリッド構造】
OpenAIが採用していた組織形態。非営利団体が営利企業を監督することで、公共の利益を守りながらビジネスとしても成長することを目指したが、二つの使命の間での緊張が問題を生んだ。