オープンAI、米国防総省との契約内容修正、世論の反発受け
今回の動きは両者の契約が発表された直後から一般利用者やAI研究者、オープンAI自体の従業員らの間で批判が高まったことを背景としている。
.jpg)
米AI企業「オープンAI」は3日、国防総省と結んだ軍事向けAI契約について、世論の激しい反発を受けて契約内容を修正する方向で調整していると明らかにした。契約は2月下旬に締結されたが、発表直後から「守るべき倫理的ハードル(安全措置)が不十分」との批判が国内外で噴出した。
オープンAIのアルトマン(Sam Altman)CEOはSNSへの投稿で、先の契約発表が「機会主義的で雑だった」と認め、契約文言を追加・明確化する作業を国防総省と進めていると説明した。具体的には、AIシステムが「米国市民や国民の監視に意図的に使用されない」ことを明確にする条項を加えるという。これには、憲法修正第4条や国家安全保障法、外国情報監視法など既存の法律に従う形での制限が盛り込まれる見込みであるとしている。
修正案では、第3者機関による国内監視だけでなく、国家安全保障局(NSA)などの情報機関がオープンAIのシステムを契約上の追加変更なしに利用できないことも明示される方向にあるという。アルトマン氏は同時に、契約発表のタイミングや説明が不十分だった点を認め、より明確なコミュニケーションが必要だったとの認識を示した。
今回の動きは両者の契約が発表された直後から一般利用者やAI研究者、オープンAI自体の従業員らの間で批判が高まったことを背景としている。契約発表から数日間で、ChatGPTのモバイルアプリのアンインストール率が急増するなど、ユーザーコミュニティからの反応も顕著であったとの分析もある。契約内容が政府の軍事利用にAIを組み込むことを容認する一方で、そのガイドラインが不十分であるとの懸念から、ボイコット運動が一部で広がった。
この種のAIと軍事の関係を巡る議論では、オープンAIのライバル企業アンソロピック(Anthropi)が先に同様の交渉を進めていたが、政府からの要求が「広範な軍事利用を可能にする」として交渉が決裂し、連邦政府はアンソロピックを「サプライチェーンリスク」に指定して協力を停止する方針を示したことも今回の騒動の契機となった。アンソロピック側は「自社のAIが大規模監視や完全自律兵器の開発に使用されることに倫理的懸念を抱いており、契約条項の要求を受け入れられない」と明言している。
オープンAIは当初、契約にはこれまでのどの機密AI配備契約よりも多くのハードルが含まれていると主張していたが、発表後の反発を受けて条項の明確化・強化が必要と判断した。これにより、米国の国防分野とAI企業の関係が今後どのように進展していくのか、特にAIの軍事利用に関する倫理と規制を巡る議論が一段と注目されることになった。
