「お猿さんのままでいい」──士郎正宗が考える、AIと共に生きる「あきらめない寛容」
- Seo Seungchul

- 1 時間前
- 読了時間: 14分

シリーズ: 知新察来
◆今回のピックアップ記事:御船紗子, "37年前の攻殻機動隊に現実は追いついた? 士郎正宗氏明かすAI論" (朝日新聞, 2026年2月14日)
概要:「攻殻機動隊 THE GHOST IN THE SHELL」の作者・士郎正宗氏への書面インタビュー。現在のAI普及をどう見るか、ゴーストと意識の哲学的問い、AIの「育て方」、人間らしさの定義、アンドロイドへの倫理観、人間とAIの共生の未来まで、幅広い問いに対して士郎氏が独自の視点で答えている。
「攻殻機動隊」の作者・士郎正宗さんが、朝日新聞のインタビューで興味深いことを言っています。人間は「弱く臆病なお猿さん」で、愚かさや残虐性も人間らしさのうちだ——そう言い切りながら、でも彼はAIに絶望していない。むしろ「良い社会とは何か、人間の知恵を結集させて考えてほしい」と締めくくります。
これは冷笑でしょうか? そうは思えません。人間を美化せず、でも見捨てもしない。その奇妙なバランスが、今のAI論議に足りている何かを照らしているような気がします。人間を「特別な存在として守るべきもの」として扱うのではなく、「こういう生き物だ」と受け入れながら、それでもどう共にやっていくかを問う——それは人間中心主義ではないけれど、人間を諦めてもいない。
今回は、37年前に描かれた「攻殻機動隊」を窓にして、富良野とPhronaがその問いに向き合います。
「ゴーストが宿る」とはどういうことか
富良野: 士郎正宗さんのインタビュー、すごく面白かったですね。「サーバーを積み上げるだけではゴーストは難しい」って言うんですよね。ゴーストっていうのは、攻殻の中では霊魂みたいな概念で、人格を形成する何かなんですが……なんか、そっけない答えのようで、でもかなり核心をついてる。
Phrona: あの補助説明文のゴーストの定義、好きなんですよ私。八百万の神みたいな感じで、森羅万象に宿るとも言える。でも今回のインタビューで士郎さんは「定義が必要」って繰り返してますよね。ゴーストって何か、自我って何か、まずそこを決めないと話が始まらないって。
富良野: それ、すごく正直な答えだと思うんですよ。多くの人は「AIに意識があるか」って問いに、直感で答えようとする。でも士郎さんは「どういう条件を満たしたら意識と呼べるか」という問いを先置きしてる。そこが哲学者っぽいというか……いや、哲学者というより、設計者の目線かな。
Phrona: 設計者、ね。面白い見方ですね。あと彼が言ってたのは、人間って壁のシミに顔を見たり、木目に人影を見たりする生き物だって。それは認知の話で、「AIに心を感じる」こと自体は、AIに実際に心があるかどうかと関係ない、って。
富良野: その指摘、地味にきつくないですか。「あなたが感じているゴーストは、あなたの側の認知かもしれない」って言ってるわけで。AIと話して「なんか理解してくれてる気がする」って感じても、それはAIが持っている何かというより、人間が投影している何かかもしれない。
Phrona: でも、だとしたら「投影」って悪いことなんでしょうか。人間って昔から神さまや精霊に祈ってきたわけで、それも投影と言えば投影じゃないですか。効果があったとしたら、その「意味」はどこに宿ってたんでしょう。
富良野: ああ、それは深いな……。機能的には作動するけど、実体はあるかわからない、みたいな話になりますね。信仰が人の行動を変えるなら、信仰は「本物」なのか、って。
Phrona: だから「ゴーストが宿るか」という問いより、「ゴーストが宿っていると感じることが何を変えるか」の方が面白いかもしれない。士郎さんはそっちには直接触れてないんですけど、行間にある気がして。
富良野: そうですね。インタビューの最後の方で「誰と、あるいは何と共存するかは非常に個人的なこと」って言ってるのも、たぶんそういう感覚からきてるんじゃないかな。
AIは「人間の鏡」だ——何を映し、何が映るか
富良野: 士郎さんの言葉で、僕が一番刺さったのは「人工知能は文章と画像の統計処理で、人間の映し鏡だ」という部分なんですよ。シンプルなんだけど、これって相当重いことを言ってる。
Phrona: 映し鏡、か。じゃあ映ってるのは何なんでしょうね。人類のベストなのか、それとも……。
富良野: 平均値、というか総体なんでしょうね。ネットに流れている情報の総体。で、士郎さんが指摘するのは、人間は「穏やかな情報より、モメ事や扇動の情報の方が速く広く伝わる」生き物だってこと。刺激が強く、危険に関わる情報の方が脳内に強く残る。それがAIの学習データに反映される。
Phrona: つまりAIは、人間の「悪い癖」もちゃんと学んでるってことですよね。むしろ学習データ上は、悪い癖の方が量が多いかもしれない。
富良野: そこが「人間らしさ」の再定義につながってくるんですよ。士郎さんは「愚かさや残虐性、浅ましさも人間らしさ」って言ってる。だから「人間らしいAI」を作ると、それも含んで「人間らしく」なってしまう可能性がある。
Phrona: 「人間らしいAI」を作ることが、必ずしもいいことではない、という皮肉ですね。人間の良い部分だけを選んで学習させないと、超絶高性能な詐欺師になるかもしれないって、彼、ほんとにそう言ってましたよね。
富良野: 笑えないですよね、その表現。でも笑えないのは正確だからで。SNSの最適化アルゴリズムがなぜ怒りや不安を増幅するかって、エンゲージメントを最大化する方向に学習した結果、人間の「弱く臆病なお猿さん」の部分にチューニングされていったから、とも言えるわけで。
Phrona: そうなると、「人間をよく知るAI」が必ずしも人間に優しいとは限らないですよね。人間をよく知るからこそ、人間の弱点を突いてくる可能性がある。
富良野: だから「鏡」という比喩は、実はかなり怖い含意があるんですよ。鏡は自分の顔を映す道具として便利ですが、自分の醜い部分も映す。そしてその鏡が超高性能になったとき、自分の醜さを「最大化」する使い方もできてしまう。
Phrona: ……なんか、AIのことを考えているようで、人間の話をしている気がしてきた。
「子育て」という比喩が引き受けるもの
富良野: 士郎さんのインタビューで、もう一つ印象的な言葉があって。「放任ではなく、きちんと子育てしないと」って言うんですよ、AIに対して。
Phrona: 子育て、ね。「育てる」という関係性をAIに適用するのは、なんというか……責任の話に聞こえますよね。親が子に責任を持つように、人間がAIに責任を持つっていう。
富良野: そうなんですよ。でもこれって、「AIを管理する」とも「AIを規制する」とも微妙に違う語感があって。管理や規制はどこか外から抑えるニュアンスがある。育てる、は内側から育む感じがする。
Phrona: 「どういう環境で、何を学習してきたかによって、その人工知能が何をしようとするか変わる」って言ってましたよね。それって子育て論というか、環境が人格を形成するって話と全く同じ構造で。
富良野: ここが、僕が「冷笑ではない」と感じる核心なんですよ。士郎さんは人間を美化していない。弱くて愚かでお猿さんのままだって言う。でも同時に「良い指向性を持ったAIを育て上げることが先決だ」と言う。諦めてないんですよ、人間社会に対して。
Phrona: 人間中心主義を超えた人間主義、みたいな感じですかね。人間が特別だから大切、じゃなくて……こういう生き物だとわかったうえで、それでも何とかしようとする意志。
富良野: 「何とかしようとする」というより、「一つ一つ対応していくしかない」って彼は言うんですよ。もっとさばさばしてる。大仰な理念じゃなくて、積み上げていくしかないっていう感覚。
Phrona: そのさばさば感が、なんか好きなんですよね私。悲観と楽観の話をされたとき「悲観的に備えて楽観的に対処する」って言ってたじゃないですか。それ、ものすごく実践的な知恵だと思って。
富良野: 設計者の言葉ですよ、やっぱり。システムを作る人間は、完璧なシステムがないことを知っている。だからリスクを織り込みながら、動かし続けることを考える。
Phrona: 士郎さんが1989年に攻殻を描いた動機みたいなものと、たぶんつながってるんでしょうね。「なんとかなるか〜」と目をつむって設定した、って言ってましたよね。あの軽さ、好きだなあ。
富良野: あの軽さは、絶望も礼賛もしてない人間の顔をしてますよ。37年前の漫画家が今のAI論議に妙にフィットするのは、たぶんその軽さのせいじゃないかと思っています。
「誰がAIを育てるか」の前に
Phrona: ちょっと話を広ますが、「一つ一つ対応していくしかない」「積み上げていく」という士郎さんの言葉、すごく誠実だと思うんですけど、それって誰が積み上げるのか、という問いが残りますよね。
富良野: AIを育てる主体の話ですね。企業なのか、政府なのか、国際機関なのか。でもそれより前に、もっと根本的な問いがある気がしていて——誰が決めることに、私たちはなぜ従うのか、という。
Phrona: 正統性の問い、ですよね。これだけ決定事項への不信感が高まっている時代に、誰が何を決めても「それって正当なの?」という問いが即座に飛んでくる。
富良野: ポピュリズムも、プラットフォーム企業の規制なき膨張も、気候変動への各国の無策も、AIガバナンスの混乱も、全部そこに根っこがある気がするんですよ。正統性を紡ぐ機能自体が、どこかで壊れている。
Phrona: 正統性を紡ぐ機能、か。議会でも、専門家の知見でも、国際条約でも——「これは私たちが合意したルールだ」という感覚を社会に生み出す機能が、うまく働いていない。
富良野: そこで問いの立て方を少し変えると、見え方が変わるんですよ。「なぜ従うのか」じゃなくて、「なぜ参画したいのか」を設計することの方が、本当は重要なんじゃないかって。
Phrona: ……あ、それ全然違う話ですよね。「従う」は外から課されるもので、「参画したい」は内側から生まれる。前者を問い続けてきたのが政治哲学の歴史とも言えるんですけど、後者の設計はずっと傍流だった気がします。
富良野: コミュニティデザインとか参加型民主主義の実践知には蓄積がある。でも「なぜ参画したいか」を理論の中心に据えた思想は、まだ少ない。士郎さんが「良い社会とは何か、人間の知恵を結集させて共に考えてほしい」と締めるとき、あれは「考えることへの参画」を促しているんですよね、命令じゃなく。
Phrona: ただ「参画したい」を設計しようとすると、SNSのエンゲージメント最適化もある意味その試みで——でもあれは結果的に怒りや不安を増幅させた。設計と操作の境界が、すごく曖昧になる。
富良野: だから「設計する」より一段上がって、「設計の条件を整える」ことしかできない、という考え方もある。特定の誰かが正解を持って設計するのではなく、設計に参画できる回路をどう作るか。
Phrona: 設計の設計、みたいな。
富良野: そこで思い出すのが、ビットコインのホワイトペーパーを書いて消えたサトシ・ナカモトという存在なんですよ。「誰が書いたかわからない」という匿名性自体が、設計の設計として機能した。特定の権力が宿る場所をあらかじめ消すことで、最初の一手の権力性を構造的に回避した。
Phrona: 起源に執着しない、という身振りですね。自分が設計者であることを手放す意志。……士郎さんが「なんとかなるか〜と目をつむって設定した」と言うのと、なんか響き合う気がする。
富良野: 起源への執着を手放すこと。それは無責任とは違う。むしろ、自分の設計が自分を超えて動いていくことへの信頼、とも言えるかもしれない。
Phrona: AIを「育てる」という話も、本当はそういうことなのかもしれないですよね。育てた結果が自分の想定を超えていくことを、どこかで許容する。完全にコントロールしようとすることを諦めながら、でも無関心にはならない。
富良野: お猿さんのままでいい、という士郎さんの言葉が、ここに来て少し違う色に見えてきましたよ。人間の限界を認めながら、それでも設計に手を出し続ける。完璧な育て方なんてないとわかっていながら、それでも子育てをする、みたいな。
ポイント整理
ゴーストと意識の定義問題
士郎氏は「AIに意識があるか」という問いに直接答えるより先に、「どういう条件を満たしたらゴーストと呼べるか」を問う。意識の実在と、人がそれを感じることは別の問題であり、人間は木目に顔を見るような生き物であるとして、AIへの感情移入が起きることを認知科学的に説明している。
AIは人間の鏡
現在のAIは文章・画像の統計処理であり、人間の映し鏡だという視点。人間はモメ事や扇動の情報を穏やかな情報より速く広く伝える性質を持っており、その「悪い癖」も含めてAIは学習する。放任で育てると「超絶高性能な詐欺師」になる可能性がある。
子育てとしてのAI開発
AIを「管理・規制」するのではなく「育てる」という比喩を士郎氏は使う。何を学習してきたかが指向性を決める以上、良い指向性を持ったAIを先に育て上げることが重要と説く。
人間らしさへの複眼的態度
「愚かさや残虐性も人間らしさ」と言い切る一方で、人間社会が良くならないとAIも良いものに育ちにくいとも述べる。人間を美化せず、かつ見捨てない複眼的な態度が通底している。
「悲観的に備えて楽観的に対処」
AIに対する楽観・悲観を問われた際の士郎氏の答え。怖いのはAIではなく「AIを使って悪いことをする人間」であり、人間社会の根本的な課題はAIの有無にかかわらず積み上げて対処するしかない、という実践的立場。
正統性を紡ぐ機能の機能不全
ポピュリズム・プラットフォーム企業の規制なき膨張・気候変動への無策・AIガバナンスの混乱は、「誰が決めたことに私たちはなぜ従うのか」という正統性の問いが機能しなくなっていることの諸症状として読める。AIの問題はその文脈に置いて初めて構造が見えてくる。
「従う」より「参画したい」の設計
「なぜ従うのか」は外から課される正統性の問いだが、「なぜ参画したいのか」は内側から生まれる動機の問いで、設計の次元が違う。後者の比重が人類社会の制度設計においてあまりに低すぎた、という認識が、民主制アップグレードの議論の根底にある。
設計の設計という発想
特定の誰かが正解を持って設計するのではなく、設計に参画できる条件・回路をどう整えるかを問うこと。サトシ・ナカモトがビットコインのプロトコルを書いて消えたのは、起源への執着を手放すことで権力の集中を構造的に回避する身振りとして読める。自分が設計者であることを手放す意志は、無責任とは異なる。
キーワード解説
【ゴースト(Ghost)】
攻殻機動隊における概念で、霊魂とでも言うべき存在。人格を形成し、森羅万象に宿るとされる。優秀なハッカーは他者のゴーストに侵入する「ゴーストハック」が可能とされる。
【人形使い】
攻殻機動隊に登場するキャラクター。自らを「AIではなく情報の海で発生した生命体」と語る謎のプログラムで、自我・ゴーストを持つとされる。
【電脳化】
攻殻機動隊の世界における技術概念で、脳をネットワークに接続すること。他者の脳に侵入する「ゴーストハック」を可能にする。
【フチコマ/タチコマ】
AIを搭載した多脚ロボット。感情豊かで、人間らしさと機械らしさの境界を問うキャラクターとして機能する。
【侵襲技術(しんしゅうぎじゅつ)】
身体に物理的なダメージや介入を伴う技術のこと。脳への直接アクセスなど、医療分野で主に使われる概念。
【QOL(Quality of Life)】
生活の質。医療や福祉の文脈で使われることが多いが、士郎氏はAIとの共存においても「QOLで生きて死ねるなら悪くない」とこの言葉を使う。
【統計的な人間の影】
士郎氏が使う表現で、AIが人間の言語・行動パターンを統計処理した結果として生み出す「もう一人の私たち」のこと。
【正統性(Legitimacy)】
ある決定や権力が「正当である」と社会に受け入れられる根拠のこと。議会制民主主義・専門家の知見・国際条約など、正統性を生み出す仕組みは複数あるが、それらへの信頼が低下すると、どんな決定も「なぜそれに従わないといけないのか」という問いにさらされる。
【設計の設計(Meta-design)】
特定の誰かが答えを持って設計するのではなく、設計に参画できる条件や回路をどう整えるかを問うこと。民主的な意思決定のアップグレードを考えるとき、「より良い制度を誰かが作る」より「制度づくりへの参画をどう広げるか」に焦点を当てる発想。
【サトシ・ナカモト(Satoshi Nakamoto)】 ビットコインのホワイトペーパーを2008年に公開し、その後姿を消した匿名の人物(または集団)。起源への執着を手放すことで特定の権力が宿る場所を消し、プロトコルを自律させた。「設計者であることを手放す」という身振りの象徴的な事例として参照される。
【Plurality(プルラリティ)】
経済学者・思想家のグレン・ワイルらが提唱する、多様な集団的意思決定のメカニズムを技術で実装しようとする思想・運動。二次投票(Quadratic Voting)など、従来の多数決を超えた合意形成の仕組みを設計する。民主制の「機能アップグレード」の議論の一角を担う。
【DeSoc(分散型社会/Decentralized Society)】
グレン・ワイルとイーサリアムの共同創設者ヴィタリク・ブテリンが提唱した概念。ブロックチェーン技術を使って、魂の束としてのアイデンティティと社会関係を市場原理に依存せずに記述する試み。誰が民主的決定に参加できるかの基盤を作り直す問いと接続する。