Pentagon yapay zeka Claude'ye savaş açtı: Tedarik güvenliği açısından riskli ilan edildi

PAYLAŞ
  • ABD Savunma Bakanlığı (Pentagon), yapay zeka şirketi Anthropic’i tedarik güvenliği açısından riskli tedarikçi olarak sınıflandırdı. Kararın, şirketin geliştirdiği yapay zeka teknolojisinin ordunun “tüm yasal askeri amaçlarla” kullanımına açılmasını reddetmesinin ardından geldiği bildirildi.
Pentagon yapay zeka Claude'ye savaş açtı: Tedarik güvenliği açısından riskli ilan edildi

ABD Savunma Bakanlığı (Pentagon), yapay zeka şirketi Anthropic’i tedarik güvenliği açısından riskli tedarikçi olarak sınıflandırdı. Kararın, şirketin geliştirdiği yapay zeka teknolojisinin ordunun “tüm yasal askeri amaçlarla” kullanımına açılmasını reddetmesinin ardından geldiği bildirildi.

Pentagon’dan yapılan açıklamada, kararın derhal yürürlüğe girdiği belirtilerek Anthropic yönetimine şirketin ve ürünlerinin tedarik güvenliği açısından riskli olarak sınıflandırıldığının resmen bildirildiği ifade edildi.

Açıklamada ayrıca, bir tedarikçinin kritik askeri yeteneklerin yasal kullanımını kısıtlayarak komuta zinciri içinde yer almasına izin verilemeyeceği vurgulandı.

Yapay zeka kullanımında anlaşmazlık

ABD hükümeti ile Anthropic arasında bir süredir devam eden gerilimin temelinde, şirketin geliştirdiği Claude adlı yapay zeka modelinin askeri kullanımına yönelik kısıtlamalar bulunuyor.

ABD ordusunun daha önce istihbarat analizleri, silah geliştirme süreçleri ve askeri operasyonların planlanmasında Claude modelinden yararlandığı biliniyor. Ancak şirket yönetimi, teknolojinin tüm askeri amaçlarla sınırsız şekilde kullanılmasına izin vermeyeceğini açıklamıştı.

Anthropic’in bu yaklaşımı Pentagon ile şirket arasında ciddi bir görüş ayrılığına yol açtı.

Pentagon’dan ültimatom gelmişti

ABD Savunma Bakanı Pete Hegseth, 24 Şubat’ta yaptığı açıklamada Anthropic’e açık bir uyarıda bulunmuştu. Hegseth, Pentagon’un yapay zekayı istediği şekilde kullanmasına izin verilmemesi halinde şirketin hükümetle yaptığı sözleşmeleri kaybedebileceğini ifade etmişti.

Bu gelişmenin ardından ABD Başkanı Donald Trump, 27 Şubat’ta tüm federal kurumlara Anthropic teknolojisinin kullanımının derhal durdurulması talimatını vermişti.

Anthropic kararı mahkemeye taşıyacak

Anthropic CEO’su Dario Amodei, Pentagon’un aldığı kararın hukuki dayanağı olmadığını savunarak şirketin konuyu mahkemeye taşıyacağını açıkladı.

Şirketin “tedarik güvenliği açısından riskli” ilan edilmesi, özellikle ABD hükümetiyle yapılan askeri sözleşmelerde Claude yapay zeka modelinin kullanılmasının önünü kesebileceği şeklinde yorumlanıyor.