top of page

「合法ならOK」は、もう通用しないかもしれない――AIと軍事契約が問いかけるもの

シリーズ: 知新察来


◆今回のピックアップ記事:James O'Donnell, "OpenAI’s 'compromise' with the Pentagon is what Anthropic feared" (MIT Technology Review, 2026年3月2日)

  • 概要:OpenAIが米国防総省と締結した契約の内容を、Anthropicが求めた条件と比較分析した記事。OpenAIは「法律と既存の政策を守る」ことを根拠に契約を結んだが、Anthropicが求めていたのはそれを超えた「契約上の明示的な禁止条項」だった。法律への委任と道徳的な自己拘束の違いを、法学者の見解も引きながら整理している。



AIを軍に使わせてはいけない、という話があります。正確には「自律型の兵器と、市民への大規模監視には使わせたくない」という話です。あるAI企業がそう主張してペンタゴン(米国防総省)との交渉を打ち切ったとき、政府は「安全保障上のリスク企業」という烙印を押して、その会社を公共調達から事実上締め出しました。そして競合他社が、「法律の範囲内でならOK」という条件で同じ契約を結びました。


これは2026年2月から3月にかけて、米国で実際に起きた出来事です。AIツールのアンインストールが前日比295%増という、異例の数字を記録したのも、この騒動がきっかけでした。


「法律に違反しなければ何をしてもいい」という論理は、本当に正しいのでしょうか。倫理は法律の外側に存在するのか、それとも法律に吸収されるべきなのか。富良野とPhronaが、ここ数日の出来事を手がかりに、その問いを静かに、しかし執拗に掘り下げていきます。




何が起きたのか


富良野:先週のペンタゴンとAI企業の話、PhronaさんはどこまでFollowしてましたか。


Phrona:ニュース自体は見ていましたけど、正直最初は「また政治とテクノロジーの衝突ね」くらいにしか受け取っていなかったんです。ChatGPTのアンインストールが300%近く増えたっていう数字を見て、ちょっとびっくりして。


富良野:あの数字はたしかに目を引きますよね。ただ、騒ぎの本質はそこじゃなくて、なんで2社の間でこんなに結果が違ったのか、というところで。


Phrona:AnthropicはNoと言って、OpenAIはYesと言った、という話ですよね。でも両社とも表向きには「自律型兵器と大規模監視には使わせない」って言ってるんですよね。なのに一方は締め出されて、一方は契約できた。


富良野:その違いが、実はすごく大事なんですよ。Anthropicは「その禁止を契約書に明文で書いてくれ」と求めた。OpenAIは「現行の法律と政策を守る、という形で書けばいい」と言った。同じ結果を目指してるように見えて、よって立つ土台が違う。


Phrona:法律に「委ねる」か、契約で「縛る」か、という違いですね。


富良野:そう。そしてその違いが、何を意味するかを掘り下げると、かなり根の深い話になってくる。



「合法ならOK」という論理の射程


Phrona:OpenAIの立場を言葉にすると、「政府が法律を守るなら問題ない」ということですよね。それって一見すごく真っ当に聞こえるんですが。


富良野:真っ当に見えるんですよね。でも、エドワード・スノーデンの話を思い出してみると……あの時にNSAがやっていた大規模な通信傍受も、米政府の内部では「合法」と判断されていたんです。当時の法解釈の範囲内だった。


Phrona:それが後から違法とされた。


富良野:裁判所でようやく「違憲だった」という判断が出るまでに、何年もかかった。つまり「合法かどうか」は、静的な事実じゃなくて、解釈が積み重なって初めて確定するものなんです。OpenAIが「法律を守る」と言うとき、その法律が将来どう解釈されるかまでは、コミットしていないわけで。


Phrona:しかも、法律を守る義務を課せられているのは、その法律を作っている側でもある。


富良野:そこが本質的な問題だと思っていて。「法律を守ります」というのは、自分で決めたルールを自分で守るという、自己拘束に近い構造になっている。外側から縛る力が弱い。


Phrona:じゃあ法律というのは、そういうものだということ、なんでしょうか。それとも、AI以前はそれで十分だったけど、AIによって何かが変わったのか。


富良野:たぶん両方、だと思うんですよね。法律はもともと後追いのものなので、当然そのズレはある。ただ、AIが従来の監視技術と根本的に違うのは、規模と速度の話で。人間が手作業でやっていた監視を、桁違いの速さで自動化できる。


Phrona:合法だとしても、できることの量が何百倍にもなってしまう、という話ですね。


富良野:そうです。法律が「想定している被害の規模」と、「AIで実際に引き起こせる被害の規模」の間に、ものすごいギャップが生まれてしまっている。



「誰が合法を決めるのか」という問い


Phrona:でも考えてみると、そもそも「合法かどうか」を判断するのは誰なんだろうって思って。ペンタゴンが「これは合法だ」と言えば、それで合法になるんですか。


富良野:それがまさに問題で。ジョージ・ワシントン大学の政府調達法の研究者が、OpenAIの契約書の公開部分を見て言ったのが「この契約は、政府が法律を守る限りにおいて制約されるものだ、というだけで、OpenAIが独自に政府の行動を禁止する権限は持っていない」という趣旨のことで。


Phrona:つまり、いざ何かが起きたときに、それが違法かどうかを判断するのは結局政府側の人間で、OpenAIには止める手段がない、と。


富良野:契約上は、そういうことになるんです。Anthropicが求めていた「明文の禁止条項」は、何かが起きたときに訴訟の根拠になる。でも「法律に従います」という条文は、その主体が政府自身であれば、自分で自分を訴えるような話になってしまう。


Phrona:自己拘束って、そういう意味ではとても弱い。縛り方が、縄じゃなくて蜘蛛の糸みたいなものかも。


富良野:そうですね。で、ここで逆の問いも出てきて。Anthropicが求めたような明文の禁止条項があったとして、それが本当に実効的かどうかも、怪しいんですよね。契約に書いてあっても、守られなければ結局は司法に持ち込む話で、それも時間がかかる。


Phrona:じゃあどちらにしろ、完璧な手段はない。


富良野:ない。でも、蜘蛛の糸よりは麻縄のほうがいい、という話は成り立つと思うんです。完璧じゃないにしても、強度には差がある。



「正しいことをした」会社が排除された、という現実


Phrona:Anthropicは、自分たちの信念を曲げなかった。でも契約を失って、「安全保障上のリスク」というレッテルまで貼られた。


富良野:「サプライチェーン・リスク」というのは、通常は外国の敵対的な企業に対して使われる指定で、アメリカの会社に対して使われたのは初めてのケースらしくて。


Phrona:それはちょっと、異常だと思う。倫理的な懸念を理由に交渉が決裂したら、敵国扱いになる、という前例ができてしまった。


富良野:そうなんですよ。しかも、Anthropicの社内から漏れてきた話だと、同じことを案じていたOpenAIの社員たちが、Anthropicの判断を支持する公開書簡に署名したりもしていた。会社の判断と、そこで働く人間の判断は、必ずしも一致しない。


Phrona:「正しいことをした結果が、これ」という事実は、次の会社に対してどんなシグナルを送るんでしょう。


富良野:そこが僕も一番気になっていて。正直に言えば、「倫理的であることは、ビジネス上のリスクだ」というシグナルに読めてしまう。少なくとも、政府との契約関係においては。


Phrona:悪いシグナルの積み重ねが、やがてルールになっていく。


富良野:ゆっくりと、でも確実に。



では企業は何のために倫理を持つのか


Phrona:ちょっと視点を変えると、そもそも企業が倫理的な基準を持つって、どういう意味なんだろうと思って。法律の範囲内で利益を最大化するのが企業の役割、という考え方もあるわけで。


富良野:古典的な株主資本主義の考え方ですね。フリードマン・ドクトリンとか言われる、「企業の社会的責任は利潤の最大化だ」というやつ。その立場からすると、OpenAIの判断は合理的で、Anthropicの判断は感情的に見える。


Phrona:でも今、そっちの方向に違和感を感じる人が増えてきている気もして。ユーザーが大量にアンインストールしたという事実も、「信頼」を重視する人たちの存在を示しているように見える。


富良野:その読み方には同意するんですが、同時に少し慎重になりたい部分もあって。あのアンインストール数は、何日も続く流れではなかった。感情的な反応が一時的に可視化されたと見ることもできる。


Phrona:長続きしないかもしれない、ということですね。


富良野:「倫理的な消費」が持続するかどうか、というのは別の問いで。でも、持続しなかったとしても、あの数字が出たこと自体は、何かを示している。「こういうことをしてほしくない」という感覚を持っている人が、一定数いることは確かだと思う。


Phrona:感覚として存在するものを、制度や契約の言葉に翻訳する役割を、誰かが担わなければいけない。


富良野:そうですね。そしてその役割を、今のところ最も積極的に担おうとしていたのが、契約を失った会社だった、という。



「法律は最低基準」だとしたら、その上は誰が決めるのか


Phrona:法律は最低限のラインだ、という考え方があって。それより高い基準を持つことが、倫理的ということだとすると、じゃあその高い基準って、誰がどうやって決めるんでしょう。


富良野:それが本当に難しいところで。企業が自分で決める、というのは一つの答えなんですが、当然「誰が企業に権限を与えたのか」という問い返しが来る。


Phrona:民主的な正統性の問題ですね。選挙で選ばれたわけでも、市民に委任されたわけでもない会社が、「私たちはこれを許さない」と言える根拠は何か。


富良野:しかも、その会社自体が市場競争の中に置かれていて、倫理的であることを維持するためのコストを誰かが払わなければならない。Anthropicが排除されたのは、その一例かもしれない。


Phrona:でも逆に言うと、民主的に選ばれた政府が「何でも合法の範囲内でやる」と言った場合に、誰かが「それでも嫌だ」と言える場所が必要で。


富良野:契約の言葉で言えば、「法律より厳しい条件を要求する」ということが、その「誰かが嫌だと言える場所」になりうる。今回の話は、その場所が潰されたという話でもある。


Phrona:法律が最低基準だとしたら、最低基準しか残らない状況が、今起きているのかもしれない。


富良野:まだ「かもしれない」の段階だと思っているんですが、その可能性を真剣に考えないといけない局面には来ている気がします。


Phrona:…なんか、「法律ってなんのためにあるんだろう」という、すごく基本的な問いに戻ってきている感じがしますね。


富良野:そうなんです。高い基準を要求した会社が排除されて、低い基準を受け入れた会社が残った。次に何かが起きたとき、どちらが「信頼できる」とみなされるのか。その問いへの答えが、実は「法律とは何か」への答えを更新していくような気がしていて。


Phrona:螺旋みたいに。同じところに戻ってきたけど、少し下の層に降りている。




 

ポイント整理


  • OpenAIとAnthropicはどちらも「自律型兵器と大規模監視にはAIを使わせない」という原則を持っていると主張していた。しかし交渉の結果は正反対となった。その違いは原則の有無ではなく、その原則を「契約上の明示的な禁止条項として書き込むか」「現行法の遵守という形に委ねるか」というアプローチの違いにあった。

  • OpenAIの立場は「政府が法律を守るなら問題は起きない」という前提に立っている。しかし、法律の解釈は固定されておらず、過去には合法とされていた監視行為が後に違憲と判断されたケース(エドワード・スノーデンが暴露した米国家安全保障局の通信傍受など)もある。「合法かどうか」は静的な事実ではなく、解釈が積み重なって初めて確定するものでもある。

  • AIは従来の技術と異なり、監視や情報収集を桁違いの規模・速度で自動化できる。このため、従来の法律が「想定していた被害の規模」と「AIで実際に引き起こせる被害の規模」のあいだに大きなギャップが生まれている。「合法だから安全」という論理が、AI時代には成立しにくくなっている。

  • 法学者の分析によれば、OpenAIの契約書の公開部分には「政府がOpenAI独自の原則を破ることを禁止する権限」が与えられておらず、あくまで「現行法を守る限り」という条件付きの制約にすぎない。Anthropicが求めていた「明文の禁止条項」とは、法的な強度において大きな差がある。

  • Anthropicは交渉を打ち切った結果、「安全保障上のサプライチェーン・リスク」に指定された。これはアメリカ企業として初めてのケースであり、倫理的な条件を交渉で要求したことが「敵対行為」とみなされた形となった。この出来事は、「倫理的であることはビジネスリスクだ」というシグナルを市場に送り出す可能性がある。

  • 企業が法律を超えた倫理基準を持つことの正統性については、根本的な問いが残る。選挙で選ばれたわけでも市民に委任されたわけでもない民間企業が「これは許さない」と言える根拠は何か。しかし同時に、民主的に選ばれた政府が「合法の範囲で何でもやる」と言うとき、それに対して「それでも嫌だ」と言える主体が存在することは、社会のバランスとして重要ともいえる。

  • ChatGPTのアンインストールが短期間に急増したという事実は、「こういうことをしてほしくない」という感覚を持つユーザーが一定数いることを示している。ただし、その感覚が持続的な行動変容につながるかどうかは、また別の問いである。



キーワード解説


自律型兵器(Autonomous Weapons)】

人間の判断を介さず、AIが自律的に攻撃目標を選定・実行できる兵器システム。「誰が責任を持つか」が不明確になる点が最大の問題とされる。


大規模監視(Mass Surveillance)】

特定の個人を対象にするのではなく、不特定多数の通信・行動データを網羅的に収集・分析する行為。AIによって、従来の手作業では不可能だった規模の監視が技術的に可能になった。


サプライチェーン・リスク(Supply Chain Risk)指定】

調達先の企業が安全保障上のリスクをもたらすと判断した場合に政府が行う指定。通常は外国の敵対的企業が対象であり、今回のようにアメリカ企業に適用されたのは異例。


第四修正条項(Fourth Amendment)】

アメリカ合衆国憲法の条項で、不当な捜索・押収からの保護を定めている。大規模監視の違憲性を問う際に根拠として用いられることが多いが、AI時代の新しい収集手段に対してどこまで適用されるかは解釈の余地が残る。


株主資本主義(Shareholder Primacy)】

企業の最大の責任は株主への利益還元にあるという考え方。経済学者ミルトン・フリードマンが1970年に提唱した「企業の社会的責任は利潤の最大化だ」という命題とともに語られることが多い。


契約上の明示的禁止条項】

「これをしてはならない」という行為を、契約書に具体的な文言として書き込むこと。一般的な「法律を守る」という条項と異なり、違反した場合に契約解除や訴訟の根拠として直接機能する。



本稿は近日中にnoteにも掲載予定です。
ご関心を持っていただけましたら、note上でご感想などお聞かせいただけると幸いです。
bottom of page