top of page

The OpenAI Filesが鳴らす警鐘──OpenAIの変遷から考える未来のガバナンス

更新日:3 日前

シリーズ: 知新察来


◆今回のピックアップ記事:Hayden Field "The ‘OpenAI Files’ will help you understand how Sam Altman’s company works" (The Verge, 2025年6月18日)

  • 概要:Midas ProjectとTech Oversight Projectという2つの非営利監視団体が公開した調査報告書『The OpenAI Files』について報じたもの。Tyler Johnston氏(Midas Project事務局長)が約1年間かけて収集した公開情報をもとに作成されたこの報告書は、50ページ以上、1万語を超える包括的な内容で、OpenAIの非営利研究機関から収益重視の企業への変遷、その過程で生じた安全性への懸念、潜在的な利益相反などを詳細に分析している。

    • 報告書はインタラクティブなウェブサイト(OpenAIFiles.org)として公開され、企業開示資料、法的文書、公開書簡、メディア報道などの資料を統合。チャートやデータビジュアライゼーションを用いて、OpenAIの複雑な企業構造やサム・アルトマンCEOの投資ポートフォリオなどを可視化している。

    • なお、報告書作成者らは、イーロン・マスク、xAI、Anthropic、Meta、Google、Microsoftなど、OpenAIの競合他社からいかなる資金提供や編集上の指示も受けていないことを明言している。



ChatGPTで世界を変えたOpenAI。でも、その華やかな成功の裏側で何が起きているのでしょうか。


内部告発者たちの証言を集めた「The OpenAI Files」は、私たちに重要な問いを投げかけています。人類の未来を左右するかもしれないAI技術を、誰が、どのように管理すべきなのか。非営利の理想から始まった組織が、なぜ今、利益追求型の企業へと変貌しようとしているのか。


富良野とPhronaが、この複雑な問題を紐解いていきます。技術の発展と倫理のバランス、透明性と競争力のジレンマ、そして権力が人を変えていくプロセス。現代社会が直面する根本的な課題が、ここには凝縮されています。




創業の理想はどこへ? 非営利から営利への転換


富良野:このOpenAI Filesを読んでいると、まるで理想主義者たちの挫折物語を見ているような気分になりますね。2015年の設立時は「人類全体の利益のため」って高らかに宣言してたのに。


Phrona:ええ、でも私はむしろこの変化に人間の本質を見るんです。理想って、現実の前ではこんなにも脆いものなのかって。


富良野:確かに理想と現実のギャップはどこにでもある。でも問題は、ここで扱ってるのがAGI、つまり人類の運命を左右しかねない技術だってことです。最初は投資家への利益を100倍に制限してたんですよ。


Phrona:100倍でも十分すぎる気がしますけどね(笑)。でもそれが20倍になり、一桁になり、ついには制限撤廃。まるで少しずつ慣らされていく感じ。


富良野:僕が注目したいのは、この変化のタイミングです。2019年に営利子会社を作り、2023年にChatGPTが大ヒット。そして2025年に完全営利化。成功が組織を変えていったんでしょうか。


Phrona:それとも、成功するために組織を変えたのか。鶏と卵みたいな話ですね。もしかしたら、彼らは本気で「営利企業の方が人類のためになる」と信じ始めたのかも。効率性とか、優秀な人材の確保とか、そういう理屈をつけて。


富良野:自己正当化ですか。でもそれって結局、当初の約束を破ることの言い訳にすぎない。特に問題なのは、非営利団体がAGIの権利を持つという約束も曖昧になってきてることです。


Phrona:権利って、結局は力関係で決まるものなのかもしれませんね。紙に書かれた約束より、実際に技術を動かしてる人たちの意思の方が強い。


安全神話の崩壊:競争圧力がもたらすもの


富良野:安全性の話も深刻ですよ。AIアラインメント研究に計算資源の20%を割り当てるって約束してたのに、実際は全然守られなかった。


Phrona:20%って数字、誰がどうやって決めたんでしょうね。でも数字の問題じゃなくて、姿勢の問題ですよね、これは。


富良野:まさに。GPT-4 Omniのリリースでは、まず公開日を決めてから、それに合わせて安全テストを急がせた。本末転倒もいいところです。


Phrona:スケジュール駆動開発、現代のテック業界の病理ですね。ただ、彼らの立場に立ってみると、競合他社に先を越される恐怖もあったんじゃないですか。


富良野:確かにGoogleやAnthropicとの競争は激しい。だからって、安全性を犠牲にしていいわけじゃない。特にAGIみたいな技術では。


Phrona:私が怖いなって思うのは、内部の人たちが慣れちゃってることなんです。毎日強力なAIと接してると、その危険性が見えなくなる。


富良野:専門家の盲点ですね。だからこそ外部の目が必要なのに、それも機能してない。2023年のハッキング事件を1年以上隠してたなんて、信じられません。


Phrona:隠したくなる気持ちも分からなくはないです。認めたら株価が下がるとか、信頼を失うとか。でもそれで余計に信頼を失うという皮肉。


富良野:結局、短期的な利益や評判を守ろうとして、長期的な信頼を犠牲にしてるんです。これこそ営利化の弊害じゃないですか。


リーダーシップの光と影:サム・アルトマンという存在


Phrona:サム・アルトマンさんについての証言、読んでて複雑な気持ちになりました。カリスマ的な部分と、かなりダークな部分と。


富良野:イリヤ・サツケヴァーの「AGIの発射ボタンを託すべき人物じゃない」って発言は衝撃的でしたね。共同創業者がここまで言うなんて。


Phrona:でも私、思うんです。強力な組織を作る人って、往々にしてこういう二面性を持ってるんじゃないかって。スティーブ・ジョブズだって、かなり厳しい人だったって言うし。


富良野:でも嘘をつくのとは違うでしょう。ミラ・ムラティさんの証言では、都合のいい約束をして、守れなかったら相手を陰で貶めるって。それはリーダーシップじゃなくて、ただの操作です。


Phrona:確かにそうですね。でも、もしかしたらアルトマンさんは、目的のためには手段を選ばないタイプなのかも。AGIという壮大な目標のためなら、多少の犠牲は仕方ないと。


富良野:マキャベリズムですか。でもそれって、まさにAGI開発で一番避けるべき考え方じゃないですか? 目的が手段を正当化するなんて。


Phrona:そうですね。でも権力を持つと、人は変わるものです。最初は純粋だった人も、だんだんと。


富良野:いや、元従業員の証言を読むと、かなり前から問題があったみたいですよ。2019年の時点で「嘘つきで操作的」って言われてる。


Phrona:じゃあ、そういう人だからこそ、ここまで組織を大きくできたのかもしれませんね。優しいだけじゃ、競争は勝ち抜けない。


富良野:でもそれじゃあ、僕たちは誰にAGIの開発を任せればいいんです?誠実な人じゃ競争に負けて、勝者は信用できない人物。これじゃ詰んでるじゃないですか。


沈黙の文化:恐怖が支配する組織


Phrona:従業員への締め付けもすごいですよね。退職後も生涯にわたって批判禁止だなんて。


富良野:しかもNDAの存在自体も口外禁止。まるで秘密結社ですよ。これじゃ問題があっても誰も指摘できない。


Phrona:恐怖で支配された組織って、結局は脆いんですよね。表面上は統制が取れてるように見えても、内部では不満が蓄積していく。


富良野:実際、優秀な人材がどんどん辞めてますからね。Anthropicを立ち上げたダリオ・アモデイ兄妹も元OpenAIだし。


Phrona:人材流出って、組織にとっては致命的ですよね。特に最先端技術を扱う組織では。でも、ある意味では、これも自然淘汰なのかも。


富良野:組織の方向性に合わない人は去り、合う人だけが残るというだけなら、いいですけど、批判的な視点がなくなったら、イエスマンばかりになってしまう。それこそ危険じゃないですか。


Phrona:そうですね。多様性を失った組織は、環境の変化に対応できなくなる。生物学的にも、組織論的にも。


透明性という幻想:オープンじゃないOpenAI


富良野:OpenAIって名前なのに、最近は全然オープンじゃないっていうのも皮肉です。名は体を表さず、ですね。


Phrona:完全な透明性は難しいでしょうが、約束したことは守るべきです。安全性評価の公開が何ヶ月も遅れたり、そもそも公開されなかったり。


富良野:特に問題なのは、規制当局への通報まで妨げてたことです。SECへの告発によると、当局への連絡にも事前許可が必要だったとか。


Phrona:それはさすがに行き過ぎですね。でも、そこまでして守りたかったものって何なんでしょう。


富良野:僕は、組織の評判と株価だと思います。都合の悪い情報が出れば、投資家の評価が下がる。だから隠す。


Phrona:でも長期的に見れば、隠蔽体質の方がよっぽど評判を下げますよね。


富良野:そう、短期的思考の罠です。四半期決算に追われる上場企業の典型的な病理。だからこそ、最初は非営利だったはずなのに。


見えない構造:投資と権力の網の目


富良野:このレポートで一番衝撃的だったのは、アルトマンCEOの投資ポートフォリオの推定図です。Retro Biosciences、Helion Energy、Reddit、Stripe、Rewind AI、Rain AI...どれもOpenAIと何らかの関係がある。


Phrona:パートナーシップ、ベンダー関係、買収の可能性...まるで蜘蛛の巣みたいに絡み合ってますね。でも、これって違法なんですか?


富良野:違法じゃなかったとしても、利益相反の可能性は高い。OpenAIのCEOが、OpenAIと取引する企業に個人投資してるわけですから。


Phrona:でも、シリコンバレーってそういうものじゃないですか? みんながみんなに投資して、エコシステムを作る。


富良野:確かにそうかもしれないですが、問題は、OpenAIが普通のスタートアップじゃないってことです。AGIという人類の未来を左右する技術を扱ってる。


Phrona:なるほど。権力と利益が一人に集中しすぎると、判断が歪む可能性がある。


富良野:そう。例えばRain AIはOpenAIのために専用チップを開発してるって報道されてますが、アルトマンさんはそこにも投資してる。これって公正な取引なんでしょうか。


Phrona:私が気になるのは、こういう複雑な利害関係が見えにくいことなんです。普通の人には、誰が誰とつながってるか分からない。


富良野:だからこそ、このOpenAI Filesみたいなプロジェクトが重要なんです。データビジュアライゼーションで複雑な関係を可視化してくれる。


AGIガバナンスの未来:私たちはどこへ向かうのか


Phrona:ここまで話してきて思うんですけど、OpenAIの問題って、実は私たち全員の問題なんじゃないですか?


富良野:どういうことです?


Phrona:つまり、強大な技術をどう管理するか、誰に任せるか、どんなルールで運営するか。これって民主主義の根本的な問いと同じような。


富良野:確かに。AGIは核兵器以上に人類の運命を左右する可能性がある。それを一企業に任せていいのか、という問題ですね。


Phrona:でも政府に任せるのも怖い気がします。技術のことを理解してない人たちが規制を作ったら、イノベーションが止まっちゃうかも。


富良野:そこなんですよ。Vision for Changeでは、第三者監査とか、多様なステークホルダーの参加とか提案されてますけど、具体的にどう実現するか。


Phrona:新しい統治モデルが必要なのかもしれませんね。企業でも政府でもない、技術の専門性と民主的正統性を両立させる仕組み。


富良野:まるでSFみたいな話ですが、現実にそういう仕組みを作らないといけない時代になってきた。


Phrona:このレポートの制作者、タイラー・ジョンストンさんが言ってましたよね。2010年代後半のビジョンと2025年の実態がどれだけ乖離してるか、って。


富良野:アーカイブプロジェクトとしての意義は大きいです。過去と現在を並べて見せることで、読者自身に判断を委ねる。押し付けがましくない。


Phrona:でも私、ちょっと希望も感じるんです。こういうウォッチドッグ組織が存在して、しかもイーロン・マスクとかAnthropicとか競合他社の支援を一切受けずに独立してやってるって。


富良野:確かに。市民社会の側からの監視機能が働いてる証拠ですね。これこそが民主主義の基盤かもしれない。


Phrona:私たち一人一人も、無関心ではいられませんよね。AIがどう使われるか、誰が管理するか、それは私たちの未来に直結してる。


富良野:そうですね。OpenAI Filesが教えてくれるのは、理想だけじゃ組織は動かないということ。でも同時に、理想を失った組織の危うさも。


Phrona:バランスを取るのは本当に難しい。でも、だからこそ議論を続ける必要があるんでしょうね。


富良野:ええ。願わくは、その議論が実を結ぶのが、手遅れになる前であることを祈りたいです。




ポイント整理


  • OpenAIは「人類全体の利益」を掲げて2015年に非営利として設立されたが、段階的に営利企業化が進行

  • 投資家への利益制限は100倍→20倍→一桁と緩和され、2025年には完全撤廃の方向

  • The OpenAI Filesは50ページ以上、1万語を超える包括的レポートで、企業構造や投資関係を可視化

  • サム・アルトマンCEOの投資先(Retro Biosciences、Helion Energy、Reddit等)の多くがOpenAIと取引関係にあり、利益相反の懸念

  • 安全性研究への資源配分の約束(20%)は守られず、製品リリース優先の姿勢が顕著に

  • 2023年のハッキング事件を1年以上隠蔽するなど、透明性の欠如が深刻化

  • 元幹部から「嘘つき」「操作的」「心理的虐待」などの告発が相次ぐ

  • 従業員は過度な秘密保持契約で縛られ、退職後も生涯批判が禁止される異常な状況

  • 優秀な人材の大量離職が続き、批判的視点を持つ人材が組織から排除される構造

  • Midas ProjectとTech Oversight Projectが独立した立場から監視活動を実施



キーワード解説


【The OpenAI Files】

Midas ProjectとTech Oversight Projectによる独立した調査レポート


【データビジュアライゼーション】

複雑な企業構造や投資関係を図表で可視化する手法


【利益相反(Conflict of Interest)】

個人の利益と職務上の責任が衝突する状況


【AGI(汎用人工知能)】

人間レベルの知能を持つ人工知能


【営利子会社(OpenAI LP)】

2019年に設立された利益追求型の組織


【利益キャップ】

投資収益に上限を設ける仕組み


【アラインメント】

AIを人間の価値観に整合させる研究


【ウォッチドッグ組織】

企業や政府の活動を監視する市民団体


【アーカイブプロジェクト】

過去と現在の情報を体系的に収集・保存する活動



本稿は近日中にnoteにも掲載予定です。
ご関心を持っていただけましたら、note上でご感想などお聞かせいただけると幸いです。
bottom of page