「もはや平和はリアリティの無い虚像」なのか――AIと暴力の、密接不可分な構造
- Seo Seungchul

- 2 日前
- 読了時間: 11分
更新日:1 日前

シリーズ: 知新察来
◆今回のピックアップ記事:Thomas Christian Bächle et al., "AI isn't a dual-use technology, it is inherently violent" (Institute of Art and Ideas, 2026年3月5日)
概要:「軍民両用(デュアルユース)」という技術分類の概念が、AIの時代においてすでに機能不全に陥っていることを論じる。民間向けに設計された技術が軍事・暴力的用途に容易に転用できるだけでなく、AI技術の自律性・汎用性・ネットワーク性そのものが暴力のポテンシャルを内包していると主張。「平和対戦争」「民間対軍事」「国家対非国家」といった近代的二分法が溶解するなか、現実的な目標は「世界平和」ではなく攻撃と防御の「均衡(equilibrium)」だと結論づける。
AIは便利なツールです。翻訳してくれる、画像を作ってくれる、物流を最適化してくれる。でも今日紹介する論考は、そういう話を静かに、しかし根本から覆します。AIは「使い方次第で危険にもなる」のではなく、その設計と普及の構造そのものに、暴力が織り込まれているのだと。そして著者たちはこう言います——「世界平和」はもはやリアルな目標ではない。現実的に目指せるのは、攻撃と防御の「均衡」だけだ、と。
この結論、あなたはどう受け止めますか。冷徹な現実主義として納得しますか。それとも、何か大切なものが失われている気がしますか。富良野とPhronaは、この「均衡」という言葉をめぐって、簡単には決着のつかない会話をしています。
「軍民両用」という言葉自体が、もうズレている
富良野:ちょっと前に「軍民両用(デュアルユース)」って言葉、聞いたことありますか。ある技術が、民間用にも軍事用にも使えますよ、という意味の概念なんですけど。
Phrona:核技術とか、化学物質とか、そういう文脈でよく出てくる言葉ですよね。「平和利用か軍事利用か」って問い方。
富良野:そう。もともとは第一次大戦のころ、爆薬と肥料を同じ製造プロセスで作れることが問題になって、そのあたりから意識されてきた概念なんですね。で、今回読んだ論考が言うのは——その「デュアルユース」という分類が、もはや機能していないってことで。
Phrona:機能していない、か。捨てるべきだという話じゃなくて、「もう実態に合っていない」という感じですかね。
富良野:そう、むしろそっちのほうが正確で。チャットAIを例にとると、アシスタントとして使うこともできるし、標的を絞る情報収集に使うこともできる。でも問題は「どちらにも使えます」って言った時点でもう何かがズレていて。
Phrona:「使い方の問題」にしてしまうと、設計の問題が見えなくなる、ということですかね。
富良野:まさにそこで。AIに限らず、コンピューターって元々「問題を汎用的に解くもの」として作られている。特定の用途に縛られていない。だから「軍用か民間か」という仕分けが、技術の本質と噛み合っていない。
Phrona:3Dプリンターで銃が作れる、という話が出てましたよね。あれはわかりやすい例で。「印刷機」として設計されたものが、規制の文脈がまるで違う「武器」になってしまう。
富良野:設計者の意図と、実際の使われ方が、完全に切り離されている。そしてAIになると、その乖離がさらに大きく、速くなる。
Phrona:「意図」という概念が、技術に対してだんだん有効じゃなくなってきている、ということですかね。ちょっと不思議な感覚ですけど。
標的を選ぶのは誰か——人間が「スコア」になる瞬間
Phrona:論文の中で、ターゲティングの話が出てきたじゃないですか。あそこ、読んでて少し怖くなりました。
富良野:自律型兵器が標的を「自動選定」するプロセスのことですね。
Phrona:そう。標的を決めるとき、AIはデータベースの中でパターンを認識して、「これが敵だ」「これが無害な民間人だ」って判定するわけですよね。そのとき「意味付け」と「意思決定」が、両方自動化されてしまう。
富良野:論考がそこを「認識論的なステップ(epistemic step)」——つまり知識や意味を作り出す段階——と呼んでいて、興味深かったです。攻撃の前に、まず「誰が標的か」という意味付けが起きている。そしてその意味付け自体が、すでに自動化されている。
Phrona:人間が「プロフィール」にされて、スコアをつけられて、システムの中で処理される。その瞬間に、もう何かが侵されている、と論考は言っていて。
富良野:「物理的な破壊が起きる前に、尊厳の侵害が起きている」というのは、なかなか強い主張ですよね。
Phrona:でも、それって戦争に限った話じゃないな、とも思って。就職活動のAI選考でも、融資審査でも、人間がスコアに変換されて、見えないアルゴリズムで処理されるわけで。
富良野:そこが鋭くて、論考は「これは戦場に限った暴力ではない」という立場をとっています。ただ軍事の文脈では、スコアの誤りが死に直結する。
Phrona:精度という話をする人は多いけど、精度の問題というより「人間をスコアに還元する」こと自体の問題、ですよね。精度がどれだけ上がっても、それは変わらない。
富良野:その点でAIの「客観性の幻想」というのは、かなり意識的に壊しにかかった論考だと思います。速さ、効率、大量データ——それが「正確さ」と混同されている。
著者たちの結論——「平和」を諦めること
富良野:で、論考の結論なんですけど、これが僕はかなり引っかかっていて。
Phrona:「均衡」を目指せ、という話ですね。
富良野:そう。「世界平和という理想は、今の地政学的現実において実現可能な目標ではない。現実的に目指せるのは、攻撃と防御の均衡だ」というのが著者たちの主張で。サイバーセキュリティの世界に例えていて——「完全なセキュリティ」を目指すのではなく、攻撃者と防御者の間の「追いかけっこ」を維持することが現実的な目標だ、と。
Phrona:サイバーセキュリティの比喩はわかりやすいですよね。ウイルスと対策ソフトの間に、永遠の勝者はいない。
富良野:でもね、僕がひっかかるのは、そこじゃなくて。彼らは「これは敗北主義ではなく現実主義だ」と明示的に言っているんですよね。つまり、そう受け取られることを自分たちも意識している。
Phrona:先手を打っている、と。
富良野:「平和条約は何年やっても成果がなかった」「現状を直視しないと問題は解けない」という論旨は、理解できます。ただ……「均衡」を受け入れることで、何かが変わってしまわないかな、とも思うんですよね。
Phrona:目標が変わると、問いの立て方も変わる。目指すものが「平和」じゃなくて「均衡の維持」になったとき、何を問うべきかが変わってくる。
富良野:そこなんですよ。それが言葉の力の問題なのか、制度設計の問題なのか、もう少し整理したいんですけど。
「均衡」は誠実な言葉か——それとも何かを覆い隠すか
Phrona:少し別の角度から考えてみると——「均衡」って誰にとっての均衡なのかな、とは思って。
富良野:というと?
Phrona:攻撃と防御のバランスが取れている状態って、強い軍事力を持っている側にとっては「均衡」かもしれないけど、小さな国や非国家の人たちにとっては、すでにその「均衡」の外側にいる場合があるじゃないですか。
富良野:均衡が、誰かの優位を前提として成立している可能性がある、ということですね。
Phrona:サイバーセキュリティの比喩でいうと、技術力の高い側と低い側では、「追いかけっこ」のスタート地点がそもそも違う。
富良野:論考はそこをあまり詰めていないんですよね。「均衡」が描く世界の中で、誰が守られ、誰が守られないかという問いが、やや薄い。
Phrona:著者たちが悪意を持っているとは思わないんですけど、「現実主義」って、無意識に「現在の力の配置」を所与として受け取ってしまうことがあるから。
富良野:「あるべき状態」ではなく「今の状態のより良い版」を目指す、というのが現実主義の基本姿勢ですよね。それは一種の誠実さでもあるけど、変革の可能性を最初から閉じてしまうリスクもある。
Phrona:平和を「理想論」として退けることが、今の秩序を固定化することと同義になってしまう可能性がある。
富良野:ただ、著者たちの言う「理想の平和条約は空手形だった」という認識は、外せない事実でもあって。
Phrona:そうなんですよね。「でも違う」とは言い切れない。ウクライナでも、中東でも、現実は動いていて、そこに法的・倫理的枠組みがほとんど機能していない、というのはファクトで。
富良野:法と倫理が機能する条件が、今の地政学的状況ではそろっていない——それが彼らの診断で。薬が効かないのに処方し続けることの欺瞞、と言えば、なんとなくわかるかな。
Phrona:うん、その比喩はわかる。でも薬が効かないからといって、何も飲まないでいいか、というのも……また別の問いで。
「均衡」の先に、人間はいるか
富良野:一番残るのはね、「均衡という概念が、人間の感覚と合っているかどうか」という問いで。
Phrona:どういうことですか。
富良野:サイバーセキュリティの世界では、攻撃と防御が繰り返されても、「人間が死ぬ」わけじゃない。でも自律型兵器が絡む戦争では、「均衡の維持」というシステム論的な目標の下で、現実の人間が死に続ける。そのギャップが、論考にはあまり出てこない。
Phrona:均衡の中で、実際に何が起きているかという話。軍事的にバランスが保たれているとき、そのバランスの「コスト」を誰かが支払っている。
富良野:ドローンの章で「いつでも、どこでも殺される可能性」という言い方をしていたじゃないですか。あれは均衡の内側にいる人間の感覚として、すごくリアルな表現だと思って。
Phrona:「均衡」って、上から見ると安定しているように見えるかもしれないけど、その内側にいる人には、不安定な暴力がずっと続いている状態なんですよね。
富良野:で、そこで思うのは——論考は「平和という言葉が空洞化している」という診断を出しているけど、じゃあ「均衡」は空洞化しないのかな、って。
Phrona:平和と同じく、均衡も、誰が使うかで内実がまるで変わる言葉ですよね。
富良野:管理された安定、という意味もあれば、お互いの脅しが釣り合っているだけ、という意味もある。どちらも「均衡」と呼べる。
Phrona:結局、言葉がどんなものであれ、「その中で人間はどう扱われているか」という問いが、取り除けないんですよね。
富良野:論考の貢献は、「デュアルユース」という言葉の欺瞞を暴いたところに大きくあると思っていて。でも新しく提案された「均衡」という言葉も、同じ問いに晒されるべきじゃないか、と。
Phrona:別の言葉で同じ場所に戻ってくる、みたいな感じはしますけど。でも、それって諦めじゃなくて——言葉をちゃんと問い続けることが、必要なんだろうなとは思います。
ポイント整理
「軍民両用(デュアルユース)」概念の崩壊
民間用と軍事用を区別する二分法は、AIの時代においてもはや実態に即していない。AIの汎用性・自律性・ネットワーク性により、設計者の意図と実際の使用目的は完全に切り離されている。コンピューターはそもそも「汎用的に問題を解く」ために設計されており、特定用途への縛りがない。
技術の「本質的暴力性」という主張
著者たちは、AIを含むデジタル技術が「使い方によっては危険」なのではなく、その機能的特性(高速処理、自動化、スケーラビリティ)が本質的に暴力のポテンシャルを内包していると主張する。
ターゲティングの自動化と人間の尊厳
自律型兵器が標的を選定する際、「誰が敵か」という意味付け(認識論的ステップ)と、攻撃の実行(意思決定)がともに自動化される。人間がデータプロフィールとスコアに還元されること自体が、物理的破壊以前の尊厳の侵害だと論考は指摘する。
ハイブリッド戦争の時代
正規軍同士の国家間戦争という近代的な戦争モデルは崩壊しつつある。サイバー攻撃、情報操作、民間インフラへの攻撃、民間軍事企業や非国家主体の参加など、戦争と平和・軍事と民間の境界が溶解している。
心理戦としての技術展示
ドローンの大規模飛行演示などは、実際の攻撃より先に「技術力のシグナリング」として機能する。暴力が実行される前に、暴力の可能性を提示することで政治的効果を生む。自然界のムクドリの群れや昆虫の群れなど、人類が古くから抱く「群れ」への畏怖を利用した心理的インパクトがある。
「均衡(equilibrium)」という現実主義的目標
著者たちは、世界平和という理想も、包括的な国際条約も、現時点では実現可能な目標ではないと主張する。現実的に目指すべきは、サイバーセキュリティにおける攻撃・防御の「追いかけっこ」のように、攻撃と防御の均衡を維持することだとする。
法的・倫理的枠組みの空洞化
EUのAI法など規制の取り組みは進んでいるが、それらの規制は「技術の意図された用途」を前提としており、想定外の暴力的転用には対応できていない。また現実の紛争においては、法的・倫理的ルールがすでに機能していない。
キーワード解説
【軍民両用(デュアルユース)】
民間目的にも軍事目的にも使用できる技術を指す概念。核技術や化学技術などで議論されてきたが、AIの汎用性によりその区分がほぼ無意味化している
【ハイブリッド戦争(hybrid warfare)】
通常の軍事衝突に加え、サイバー攻撃・情報操作・経済的圧力・民間インフラへの攻撃などを組み合わせた複合的な戦争形態
【自律型兵器システム(autonomous weapon systems)】
人間の直接的な介入なしに標的を選定し攻撃を実行できる兵器。「人間がループに関与するかどうか(human in the loop)」が倫理的論点になっている
【ターゲティング(targeting)】
攻撃対象を識別・選定するプロセス。AIによる自動化により「誰が敵か」という判断がアルゴリズム処理に委ねられつつある
【スウォーミング(swarming)】
多数のドローンや無人機が単一のオペレーターまたはAIシステムの指令のもとで協調して動く技術。軍事的能力の誇示としても機能する
【均衡(equilibrium)】
本論考では「攻撃と防御のバランスが保たれた状態」を指す。「平和」という理想に代わる、現実主義的な目標として提示されている
【認識論的ステップ(epistemic step)】
知識や意味を生み出すプロセス。AIによるターゲティングでは、「何が標的であるか」という意味付け自体が自動化されており、これを人間の認識プロセスが代替している状態