Yapay zeka aracı Claude’un geliştiricisi Anthropic ile Pentagon arasında, şirketin yapay zeka teknolojisindeki bazı güvenlik kısıtlamalarını kaldırmaması üzerine bir süredir tırmanan gerilim mahkemeye taşındı.
Pentagon’un 6 Mart’ta Anthropic’i “tedarik güvenliği açısından riskli” ilan etmesi üzerine şirket tarafından 9 Mart’ta açılan davada yargıç kararını açıkladı.
Federal yargıç Rita Lin, Pentagon’un şirketi “riskli” ilan ettiği kararın yürütmesini ve ABD Başkanı Donald Trump’ın tüm federal kurumlara Anthropic teknolojisinin kullanımını durdurma talimatını geçici olarak durdurdu.
Lin “Bir şirketin hükümetle aynı fikirde olmadığını ifade ettiği için ABD’nin potansiyel düşmanı ve sabotajcısı olarak damgalanmasının” kanunlarda yerinin olmadığını belirtti.
Hükümetle Anthropic arasındaki gerilim
ABD ordusunun bugüne kadar istihbarat çalışmaları, silah geliştirme faaliyetleri ve askeri operasyonların yürütüldüğü sistemlerde Anthropic’in geliştirdiği yapay zeka sohbet robotu Claude modelini kullandığı belirtiliyor.
Şirketin, Claude modelini “tüm yasal askeri amaçlar” için kullanıma açmayı reddetmesi ve askeri kullanıma dair güvenlik endişeleri, Pentagon ile anlaşmazlıklara yol açmıştı.
ABD Savunma Bakanı Pete Hegseth, 24 Şubat’ta Anthropic’e ültimatom vermiş, Pentagon’un şirketin yapay zekasını istediği şekilde kullanmasına 27 Şubat’a kadar izin vermedikleri takdirde hükümetle sözleşmelerini kaybetme riskinin bulunduğunu söylemişti.
Ardından Pentagon, 6 Mart’ta teknolojisinin ABD vatandaşlarının gözetlenmesinde ve tam otonom silahlarda kullanılmasını kabul edemeyeceğini açıklayan firmayı “tedarik güvenliği açısından riskli” ilan etmişti.
Anthropic, 9 Mart’ta ABD hükümetine karşı iki dava açarak, Pentagon yetkililerinin yapay zeka güvenliği konusundaki tutumundan dolayı şirkete yasa dışı şekilde misilleme yaptığını iddia etmişti.
ABD Başkanı Donald Trump da 27 Şubat’ta Pentagon ile Anthropic arasında yaşanan tartışmaların ardından tüm federal kurumlara Anthropic teknolojisinin kullanımının derhal durdurulması talimatını vermişti.
