top of page

AGIは現代の陰謀論なのか──シリコンバレーが夢見る「神」の正体

シリーズ: 知新察来


◆今回のピックアップ記事:Will Douglas Heaven "How AGI became the most consequential conspiracy theory of our time" (MIT Technology Review, 2025年10月30日)

  • 概要:AGI(汎用人工知能)という概念が、どのように周縁から主流へと移行し、陰謀論的な性質を帯びながらテック業界全体を支配するようになったかを検証する長文記事。Ben Goertzelによる命名から、OpenAIやDeepMindといった企業の台頭、そしてEliezer Yudkowskyのような終末論者の影響まで、AGIをめぐる言説の歴史と構造を批判的に分析している。



OpenAIのような企業は何千億ドルもの資金を投じて「AGI(汎用人工知能)」の実現を目指しているが、その定義すら曖昧なままだ。シリコンバレーのエリートたちは、AGIが人類を救うか滅ぼすかのどちらかだと語る。


しかし、この物語は単なる技術開発ではなく、陰謀論に似た構造を持っているのではないか。信じる者だけが「真実」を見抜き、予言の日付がずれても信念は揺るがず、救済と終末の二項対立で世界を語る──。MIT Technology Reviewの長文論考を手がかりに、富良野とPhronaがAGIという神話が業界全体をどう歪めているのか、そして私たちがなぜこの物語に惹かれるのかを探っていく。




AGIという名前が生まれた日


富良野:AGIって、実は2007年にAI研究者のBen Goertzelさんが本のタイトルとして使うために考えた造語なんですよね。Artificial General Intelligence、汎用人工知能。当時のAIなんて、Netflixが映画をレコメンドするくらいの地味な技術だったのに。


Phrona:でも、名前って大事ですよね。それまでのAIとは違う、何か特別なものだって印象を与える。Goertzelさん自身、明確な定義があったわけじゃなくて、むしろ研究分野としての名前が欲しかっただけらしいんです。


富良野:そう、そこが面白いんですよ。中身が曖昧なまま、言葉だけが先に広まっていった。その曖昧さが、逆に色々な人の想像力を刺激したんでしょうね。で、その名前を提案したのがShane Leggさんで、彼は後にDeepMindを共同創業するんです。


Phrona:ああ、つまりAGIという言葉そのものが、研究室から企業へ、周縁から中心へと移動していったわけですね。Goertzelさんが始めた年次カンファレンスも大きかったみたいで。主流の学会と併催することで、若い研究者たちがAGIという概念に触れる機会が増えた。


富良野:当時は変人扱いだったらしいですよ。Andrew Ngみたいな大物研究者は、AGIなんて狂気の沙汰だって言ってたくらいで。でもDeepMindがGoogleに買収されて、OpenAIが設立されて、気づいたら業界全体がAGIを目指してるって話になってる。


Phrona:面白いのは、定義がないからこそ、みんなが自分なりのAGIを思い描けるってところですよね。ある人にとっては学習できる機械、別の人にとってはお金を稼げる機械、またある人にとっては体を持って動き回れる機械。コーヒーを淹れられることが条件だって言う人もいたらしいです(笑)。


富良野:2023年にGoogle DeepMindの研究チームが、過去のAGI定義をまとめようとしたんですけど、結局カテゴリー分けするのが精一杯だったそうです。で、Leggさん自身が言うには、最初から明確な定義は必要だと思ってなかったって。


Phrona:つまり、誰もAGIが何かを本当には知らないまま、みんながAGIについて語ってるってことですね。それって、ちょっと不思議な状況じゃないですか?



終末論者の登場と信念の拡散


富良野:AGIの物語には、もう一人重要な人物がいるんです。Eliezer Yudkowskyさん。彼は2000年に「Singularity Institute for Artificial Intelligence」という非営利組織を作って、AGIが人類を滅ぼすリスクについて警鐘を鳴らし始めた。


Phrona:AGIがまだSFの話だった時代に、ですか?


富良野:そう。最初は誰も相手にしなかったんですけど、2014年にNick Bostromという哲学者が『Superintelligence』って本を出してから流れが変わった。Bill GatesやElon Muskみたいな人たちがその本を読んで、AGIの危険性を真剣に考え始めたんです。


Phrona:で、Yudkowskyさんの考えが、今のOpenAIとかの企業にも影響を与えてるんですよね。LessWrongっていうオンラインコミュニティで、若いエンジニアたちが彼の思想を読んで育った。


富良野:そうなんです。実際、OpenAIのCEOのSam Altmanさんは、Yudkowskyさんが誰よりもAGIの進展を加速させたって公言してるくらいで。Peter Thielっていう投資家も、Yudkowskyさんと話してDeepMindに投資を決めたらしい。


Phrona:なんだか皮肉ですね。AGIは危険だって警告してる人が、結果的にAGI開発を推進する企業の誕生に貢献してしまった。


富良野:まさに。で、Yudkowskyさんは今でも一貫して、AGIが開発されたら人類は滅亡するって主張してます。99.5%の確率で破滅だって。最新の著書では、国際的な禁止措置を核報復も辞さない覚悟で実施すべきだって書いてるんですよ。


Phrona:……それ、もはや終末預言者みたいじゃないですか。


富良野:まあ、New York Timesも彼を「シリコンバレーの終末説教師」って呼んでますからね。でも、その本がベストセラーになって、国家安全保障の専門家や有名人から支持を得てる。周縁の思想が、いつの間にか影響力を持つようになった。


Phrona:AGIが存在しないのに、AGIをめぐる言説だけが膨張していってるわけですね。それって、ある種の信念体系ですよね。



陰謀論との構造的類似性


富良野:ここからが面白いんですけど、この記事の著者は、AGIという概念が陰謀論と似た構造を持ってるって指摘するんです。


Phrona:陰謀論、ですか。強い言葉ですね。


富良野:まず、陰謀論の特徴として、予言が外れても信念が揺るがないってのがあるんですよ。AGIも同じで、予測された期限が来ても実現しなければ、じゃあ次は来年だ、いや5年後だって言い直すだけ。


Phrona:ああ、確かに。今年の夏にOpenAIがGPT-5を出したときも、期待してたほどの進歩じゃなかったのに、信者たちは「AGIはもうすぐ来る」って予測をちょっと先送りしただけでしたよね。


富良野:そう。これをJeremy Cohenっていう研究者は「不完全な証拠収集」って呼んでます。自分の信念を支持する証拠だけを拾って、反する証拠は無視する。彼はアリゾナで不老不死を信じるコミュニティを研究してたんですけど、メンバーが死んでも「自殺したに違いない」って解釈するんですって。


Phrona:AGIも似てる?


富良野:似てますね。AGIは実現可能だって信じてる人に「なぜ懐疑的な人が多いのか」って聞くと、「歴史上、飛行機も電気も、偉い人たちに不可能だって言われてきた。人は目の前にあるものしか信じない」って答えるんです。


Phrona:つまり、疑う人たちこそが盲目で、信じる人たちだけが真実を見てるって構図ですね。


富良野:そう。で、二つ目の特徴は「隠された真実」なんです。陰謀論って基本的に、一般人は知らない秘密を暴くっていう構造じゃないですか。


Phrona:ああ、内部者だけが知ってる真実があって、それを明らかにすることが使命だって感じ。


富良野:AGIも同じで、Leopold Aschenbrennerっていう23歳の元OpenAIスタッフが165ページの宣言文を出したんですけど、タイトルが「Situational Awareness」──状況認識。つまり、何が起きてるか分かってる人と分かってない人がいる、って前提なんですよ。


Phrona:証拠じゃなくて「感じる」ことが大事だって。


富良野:そう。OpenAIのIlya Sutskeverさんなんて、チームミーティングで「Feel the AGI!」って唱えてたらしいですからね。AGIを感じろって。


Phrona:それ、もう宗教ですよね……。でも、信じる人たちにとっては、自分たちが人類の歴史の転換点に立ち会ってるって感覚が大事なんでしょうね。



救済と終末の二項対立


富良野:三つ目の特徴が、救済と終末の物語なんです。AGIは人類を救うか滅ぼすかのどちらかだって語られる。


Phrona:うん、企業のトップたちの発言って、本当に極端ですよね。Anthropicのダリオ・アモデイさんは「天才の国」レベルの知性だって言うし、Google DeepMindのデミス・ハサビスさんは「最大の人間的繁栄の時代」とか「銀河を植民地化する」とか言ってる。


富良野:OpenAIのAltmanさんは「豊かさを大幅に増やして、人生を楽しむようになって、子供をもっと産むようになる」って(笑)。でも、同じ人たちが「AGIは核戦争やパンデミックと同じレベルの存亡リスクだ」って署名してるんですよ。


Phrona:Elon Muskは20%の確率で人類を滅ぼすって言ってますよね。笑いながら。


富良野:AI Impactsっていう組織のKatja Graceさんが言うには、superintelligence、つまり超知性なんて言葉は、真面目に扱われたいなら口にしちゃいけない概念だったのに、今やテックCEOたちが平気で使ってるって。


Phrona:でも、それって何に似てるかっていうと……昔のNew Age運動ですよね? 人類が精神的な次の段階に進化して、ユートピアが来るっていう。


富良野:まさに。McMaster大学のJeremy Cohenさんが指摘してるんですけど、違いは、New Ageは人間自身が変わることを信じてたのに、AGIでは技術だけが人類を救えるって信じてることなんです。


Phrona:人間への信頼を失って、機械に希望を託してる。


富良野:エディンバラ大学のShannon Vallorさんが言うには、社会を良くする他の道が行き詰まってるように見えるから、テクノロジーだけが未来への希望だって感じになってるんですって。


Phrona:でも、それって危険じゃないですか。複雑な問題──気候変動とか格差とか──を解決するには、国際協力とか妥協とか、地道な努力が必要なのに、AGIが全部解決してくれるって思考停止しちゃう。


富良野:記事の著者もまさにそう言ってます。AGIという夢に酔って、私たちが本当に必要な努力を怠る口実にしてるんじゃないかって。



曖昧さが生む無敵の論理


Phrona:でも、AGIって結局のところ、何なんですかね。定義がないってことは、誰も間違えないってことでもあるじゃないですか。


富良野:そう、それがこの概念の強さでもあり、厄介なところでもあるんです。多くの定義に共通するのは「幅広い認知タスクで人間に匹敵する機械」くらいで。でも、どんな人間? どんなタスク? どれくらい幅広く?


Phrona:全部曖昧ですね。


富良野:Oak Ridge国立研究所の元責任者だったChristopher Symonsさんが言うには、「人間レベルの知性」なんて無限にあるわけで、みんな違う知性を持ってるんだから、何を目指してるのか分からないって。


Phrona:でも、2023年にMicrosoftの研究者たちが、GPT-4には「AGIの火花」があるって論文を出して、業界を二分しましたよね。


富良野:あれは象徴的でしたね。すごく驚いた人たちもいれば、Goertzelさんみたいに「LLMにAGIの火花なんてない」って否定する人もいた。でも面白いのは、Goertzelさん自身が言ってる言葉で──「でも、それが真実じゃないって証明はできない」って。


Phrona:ああ……それこそが陰謀論の論理ですね。否定できないから正しいかもしれない、って。


富良野:そう。Vallorさんが言うには、AGIが来るとか、すぐそこまで来てるとか、不可避だっていう考えは、「現実からの多くの逸脱を許可してる」んだけど、実際にはそれを裏付ける証拠がないんですって。


Phrona:予測が外れても、締め切りがずれるだけ。OpenAIの幹部が言ってたらしいですね、AGIは常に6ヶ月から1年先にないといけないって。それより先だと優秀な人材をリクルートできないし、もう実現してたら意味がないから。


富良野:ビジネスとして合理的なんですよ。神話を維持することが。



誰が得をするのか


Phrona:でも、このAGI神話って、誰のためのものなんでしょう。


富良野:結局のところ、シリコンバレーの権力者たちが一番得してるんじゃないですかね。OpenAIは今や50兆円の価値がある世界で最も価値のある非公開企業で、NvidiaやAMDと合計16ギガワットの電力供給契約を結んでる。


Phrona:16ギガワット……原発級ですね。


富良野:そう。で、Altmanさんは「このデータセンター建設がなければ、人々は癌の治療と無料教育のどちらかを選ばなきゃいけなくなる」って真顔で言ってるんです。


Phrona:でも、その数週間後にはChatGPTにエロティックチャット機能を追加するって発表してるんですよね(笑)。


富良野:まさに。Symonsさんが言うには、何百億ドルもあれば、実用的で解決可能な問題に集中する必要がなくなるんですって。AGIっていう曖昧なゴールを追いかけてればいい。


Phrona:つまり、AGIという神話があるから、今すぐ人々の生活を変えられる技術への投資が後回しにされてる。


富良野:そう。カリフォルニア大学デービス校のTina Lawさんが心配してるのは、政策立案者がAIに殺される未来についてロビイングされてる間に、今日のAIが実際に人々の生活に与えてる影響──不平等とか──が置き去りにされてることなんです。


Phrona:誇大広告が、規制を歪めてるってことですね。


富良野:しかも、AGIは不可避だっていう枠組みで語られるから、抵抗すべきかどうかだけじゃなくて、抵抗できるかどうかも疑わしくなる。みんなロックインされちゃう。


Phrona:で、外交政策にまで影響してるんですよね。


富良野:Georgia工科大学のMilton Muellerさんによると、AGI競争が原爆開発競争と同じように語られてて、最初に手に入れた者が絶対的権力を持つって話になってる。それが外交政策まで歪めてるって。


Phrona:誰が最初にたどり着くかって競争なのに、ゴールラインが定義されてない。でも、その神話が便利だから企業も政府も使い続ける。


富良野:ユートピアでも地獄でもなく、単にOpenAIとその仲間たちがもっとお金を稼ぐって話なのかもしれない。



知性という商品の幻想


Phrona:でも、根本的な問題って、知性を「増やせる商品」だと思ってることじゃないですか。


富良野:ああ、それは鋭いですね。正しいデータ、正しい計算力、正しいニューラルネットワークがあれば、知性っていう量を増やせるっていう前提。


Phrona:でも、知性ってそういうものじゃないですよね。ノーベル賞受賞者でもピアノは下手かもしれないし、子育ては苦手かもしれない。ある分野で優れてても、別の分野ではそうじゃない。


富良野:University of North CarolinaのKelly Joyceさんが言うには、テクノロジーは人間より優れてるっていう深い信念があるんですって。だから、誇大広告が来るたびに私たちは引っかかる。


Phrona:テクノロジーが神だって。宗教なんですね。


富良野:そう。でも、Joyceさんが言うには、それに異議を唱えるのは本当に難しいって。人々は聞きたくないんです。


Phrona:でも、AGIっていう概念が、テクノロジーに何を期待すべきかっていう見方自体を歪めてるんじゃないでしょうか。ある技術がとても速く進歩してるから、これからも進歩し続けるだろうって前提で。


富良野:でも、もし進歩が止まったら? 技術的な反論はさておき、根本的な主張は、知性が数値化できて、積み上げられるものだっていう考えに基づいてる。でも、そうじゃない。


Phrona:賢い人たちの中には、AGIが来年来るって本気で信じてる人もいる。


富良野:そう考えると、次に何が私たちを捕らえるのか、気になりますよね。



かつての周縁、今や主流


Phrona:Goertzelさん、最近サンフランシスコでAI意識と超心理学についてのイベントに行ったらしいですね。ESPとか予知とか。


富良野:で、彼が言うには「それが20年前のAGIの立ち位置だった。みんな頭がおかしいと思ってた」って。


Phrona:今やAGIは主流で、次の「頭がおかしい」アイデアがどこかで育ってるんでしょうね。


富良野:でも、Goertzelさん自身、ちょっと複雑な気持ちみたいですよ。AGIがこんなに広く受け入れられて、むしろ戸惑ってるって。「僕の世代は、AGIに取り組むにはビジョンと頑固さが必要だった。今じゃおばあちゃんがビジネス専攻の代わりに勧める仕事になってる」って。


Phrona:辺境にいる感覚を懐かしんでる。


富良野:「広く受け入れられすぎて、方向感覚を失う。別のことをやりたくなる」って言いながら、「でも、AGIに最後の仕上げをすることの方が、辺境にいたいって欲望より大事だよね、明らかに」って付け加えるんです。


Phrona:……でも、何に最後の仕上げをしてるのか、誰も本当には分かってないんですよね。


富良野:そう。それがこの物語の核心かもしれない。存在しないものを、存在すると信じることで前進する。それが陰謀論に似てるのか、それとも人類の進歩の本質なのか。


Phrona:もしかしたら、両方なのかもしれませんね。


 

 

ポイント整理


  • AGIという用語の誕生と普及

    • 2007年にBen Goertzelが本のタイトル用に考案した「Artificial General Intelligence」は、当初は明確な定義のない概念だったが、年次カンファレンスの開催、DeepMindやOpenAIといった企業の設立、投資家Peter Thielの関与などを通じて、周縁から主流へと移行していった

  • 終末論の系譜

    • Eliezer Yudkowskyは2000年に非営利組織を設立し、AGIによる人類滅亡のリスクを警告し続けてきた。2014年のNick Bostrom著『Superintelligence』が転換点となり、Bill GatesやElon Muskといった影響力のある人物がこの懸念を真剣に受け止めるようになった。Yudkowskyの思想はLessWrongなどのオンラインコミュニティを通じて若いエンジニアたちに浸透し、現在の主要AI企業の思想的基盤の一部となっている

  • 陰謀論との構造的類似性

    • AGIをめぐる言説は、(1)予測が外れても信念が揺るがない、(2)内部者だけが知る「隠された真実」の存在、(3)救済と終末の二項対立という、典型的な陰謀論の特徴を共有している。証拠ではなく「感じること」が重視され、否定的な証拠は無視されるか再解釈される

  • 定義の曖昧さの戦略性

    • AGIの定義は研究者によって大きく異なり、「幅広い認知タスクで人間に匹敵する機械」という曖昧な共通理解しか存在しない。この曖昧さは欠陥ではなく、むしろ多様な解釈を可能にし、反証不可能性を生み出している。2023年のMicrosoft研究チームによる「GPT-4にはAGIの火花がある」という主張は業界を二分したが、決着はついていない

  • ビジネスモデルとしての神話

    • OpenAIの幹部が「AGIは常に6ヶ月から1年先になければならない」と述べたように、AGIという神話の維持は人材確保と投資誘致に不可欠となっている。OpenAIは現在50兆円の評価額を持ち、NvidiaやAMDと合計16ギガワット(原発級)の電力供給契約を結んでいるが、これらの巨額投資の正当化にはAGI神話が不可欠

  • 機会費用と資源配分の歪み

    • AGIという曖昧な目標への巨額投資により、現在の技術で解決可能な具体的問題(医療、教育、気候変動対策など)への取り組みが後回しにされている。Christopher Symonsは「何百億ドルもあれば、実用的なプロジェクトに集中する必要がなくなる」と指摘する

  • 政策と規制への影響

    • AGIの存亡リスクに焦点が当たることで、現在のAIが生み出している格差や差別といった実際の問題が軽視される傾向がある。また、AGI競争が原爆開発競争になぞらえられることで外交政策まで歪められている。「AGIは不可避」という枠組みは抵抗の余地を奪い、業界と政府を特定の方向にロックインする

  • 技術決定論と人間性の放棄

    • New Age運動が人間自身の変化を信じたのに対し、AGI言説は技術のみが人類を救えるという信念に基づいている。これはShannon Vallorが指摘する「社会改善の他の道が行き詰まっているように見える」時代精神を反映しており、複雑な問題に対する地道な努力を回避する思考停止を招いている

  • 知性概念の単純化

    • AGIをめぐる議論は、知性を「正しいデータと計算力があれば増やせる商品」として扱っているが、これは知性の多面性を無視した単純化である。ノーベル賞受賞者でも特定の領域では平凡であるように、人間の知性は領域横断的に均質ではない

  • 宗教的・千年王国的要素

    • Ilya Sutskeverの「Feel the AGI!」という唱和、Leopold Aschenbrennerの165ページに及ぶ宣言文「Situational Awareness」、SingularityやFOOM(知能爆発)といった終末論的概念は、AGI言説が科学技術ではなく準宗教的信念体系の性格を帯びていることを示している

  • 内部者による懐疑と懸念

    • AGI概念の生みの親であるGoertzelも、LLMにAGIの火花があるとは考えていない。また彼は「AGIがこんなに広く受け入れられて方向感覚を失う」と述べ、かつての周縁性を懐かしんでいる。これは概念の創始者自身が、その普及の仕方に違和感を抱いている状況を示している

  • 権力集中のツールとしてのAGI

    • モントリオール大学のDavid Kruegerは、シリコンバレーには「AGIを構築することで莫大な権力を掌握できる」という思想が流れていると指摘する。AGI神話は単なる技術予測ではなく、世界的な権力再編の正当化装置として機能している可能性がある



キーワード解説


AGI(Artificial General Intelligence / 汎用人工知能)】

幅広い認知タスクで人間に匹敵する、あるいは凌駕する仮説上の人工知能。明確な定義は存在せず、研究者によって解釈が大きく異なる。2007年にBen Goertzelが命名


Superintelligence(超知性)】

AGIをさらに超え、あらゆる領域で人間を凌駕する知性を持つとされる仮説上のAI。近年OpenAIなどがAGIに代わる新しい目標として掲げている


Singularity(シンギュラリティ / 特異点)】

SF作家Vernor Vingeが1980年代に提唱した概念で、AIが自己改善を始めることで技術進歩が加速し、人間の理解を超えた変化が起こる仮想的な転換点。物理学の特異点(事象の地平線)から借用した用語


FOOM(知能爆発)】

AGIが一度実現すると、自己改善によって急速に超知性へと進化する現象を指す擬音語的表現。一瞬にして制御不能な超知性が出現するという終末論的シナリオ


LessWrong】

Eliezer Yudkowskyが設立したオンラインコミュニティで、合理主義(rationalism)と効果的利他主義(effective altruism)の中心的プラットフォーム。シリコンバレーの多くのエンジニアがここでAIリスクについての思想を学んだ


Effective Altruism(効果的利他主義)】

証拠と理性に基づいて、限られたリソースで最大の善をもたらす方法を追求する思想・運動。AI安全性研究への多額の資金提供を正当化する理論的枠組みとなっている


Rationalism(合理主義)】

LessWrongコミュニティを中心とした知的運動で、認知バイアスの克服と厳密な推論を重視する。AGI開発者の思想的背景の一つ


LLM(Large Language Model / 大規模言語モデル)】

GPTシリーズなど、膨大なテキストデータで訓練された深層学習モデル。一部の研究者は「AGIの火花」を見出したと主張するが、批判も多い


Sparks of AGI】

2023年にMicrosoft研究チームがGPT-4を評価した論文のタイトルで、LLMに汎用知能の兆候が見られると主張。業界を二分する論争を引き起こした


Situational Awareness(状況認識)】

元OpenAI社員Leopold Aschenbrennerが2024年に発表した165ページの宣言文のタイトル。AGIの到来を「感じる」ことができる内部者と、それができない外部者を区別する思想を展開


Existential Risk(存亡リスク)】

パンデミックや核戦争と並ぶレベルで人類の存続を脅かすリスク。2023年にOpenAI、Anthropic、DeepMindのCEOらが「AIからの絶滅リスクの緩和は地球規模の優先事項であるべき」という声明に署名


Safe Superintelligence】

Ilya Sutskeverが2024年にOpenAIを辞めて設立したスタートアップ。制御不能な超知性を防ぎ、安全な超知性を実現することを目的としている


Techno-utopianism / Techno-dystopianism(技術的ユートピア主義 / 技術的ディストピア主義)】

技術が人類を理想郷に導く、あるいは破滅に導くという両極端な未来観。AGI言説はこの二つを同時に語ることが特徴


New Age Movement(ニューエイジ運動)】

1970-80年代に隆盛した精神的・宗教的運動で、人類の意識拡大と新時代の到来を信じた。AGI言説との類似性が指摘されるが、New Ageが人間自身の変化を信じたのに対し、AGIは技術への依存を特徴とする


Transhumanism(トランスヒューマニズム)】

科学技術によって人間の身体的・精神的限界を超越しようとする思想運動。AGI追求の背景にある世界観の一つ


Imperfect Evidence Gathering(不完全な証拠収集)】

自分の信念を支持する証拠だけを選択的に収集し、反する証拠を無視する認知バイアス。陰謀論とAGI言説に共通する特徴


Millenarian Turn(千年王国的転換)】

終末と新時代の到来を信じる宗教的信念構造。AGIの「before and after」という語りはこの伝統的な物語構造を踏襲している



本稿は近日中にnoteにも掲載予定です。
ご関心を持っていただけましたら、note上でご感想などお聞かせいただけると幸いです。
bottom of page