6 Mart 2026 Cuma
Haber

Otonom Savaşın Karanlık Yüzü: ABD ve İsrail’in Yapay Zeka Destekli Saldırıları Hukukçuları Böldü

ABD ve İsrail’in İran’a yönelik son operasyonlarında, hedef belirleme süreçlerini algoritmaların yönettiği iddiası küresel bir hukuk krizini tetikledi. Uzmanlar, "insan denetiminin" sembolik bir onaya indirgendiği bu yeni savaş modelinin, Cenevre Sözleşmeleri’ni fiilen geçersiz kılabileceği uyarısında bulunuyor.

Paylaş:
Otonom Savaşın Karanlık Yüzü: ABD ve İsrail’in Yapay Zeka Destekli Saldırıları Hukukçuları Böldü

ABD ve İsrail’in İran’a yönelik son operasyonlarında, hedef belirleme süreçlerini algoritmaların yönettiği iddiası küresel bir hukuk krizini tetikledi. Uzmanlar, "insan denetiminin" sembolik bir onaya indirgendiği bu yeni savaş modelinin, Cenevre Sözleşmeleri’ni fiilen geçersiz kılabileceği uyarısında bulunuyor.

ABD ve İsrail ordularının İran hedeflerine yönelik gerçekleştirdiği son hava saldırılarında gelişmiş yapay zeka (YZ) modellerini aktif olarak kullandığına dair raporlar, uluslararası hukuk camiasında derin bir çatlağa neden oldu. Hedef listelerinin oluşturulmasından saldırı onayına kadar geçen süreyi saniyelere indiren bu teknolojiler, sivil kayıpların önlenmesi ve "orantılılık" ilkesinin uygulanabilirliği konusunda ciddi soru işaretleri yaratıyor.

Hedef Seçiminde "Lastik Mühür" Tehlikesi

Savunma analistleri ve hukukçuların odaklandığı temel sorun, karar alma mekanizmasındaki hızın insan faktörünü devre dışı bırakması. Geleneksel askeri doktrinde bir hedefin vurulması için gereken istihbarat doğrulama süreci saatler hatta günler alabilirken, yeni nesil YZ sistemleri (örneğin İsrail'in kullandığı iddia edilen "Lavender" veya "The Gospel" benzeri algoritmalar ve ABD'nin veri entegrasyon sistemleri) binlerce potansiyel hedefi dakikalar içinde işleyebiliyor.

Uluslararası hukuk uzmanları, bu hızın komuta kademesindeki subayların her bir hedefi titizlikle incelemesini imkansız hale getirdiğini savunuyor. Eleştiriler, insan operatörlerin algoritmaların sunduğu hedeflere sadece şeklen onay verdiği, yani bir tür "lastik mühür" (rubber stamp) işlevi gördüğü noktasına yoğunlaşıyor. Bu durum, Uluslararası İnsancıl Hukuk'un (UİH) temelini oluşturan, saldırı öncesinde sivil-asker ayrımının kesin olarak yapılması zorunluluğunu tehlikeye atıyor.

Sivil Koruma Kalkanı Deliniyor mu?

Birleşmiş Milletler ve çeşitli insan hakları örgütleri, otonom veya yarı otonom silah sistemlerinin savaş alanındaki belirsizliği artırdığına dikkat çekiyor. İran saldırılarında kullanılan sistemlerin, "davranışsal analiz" yaparak sivil nüfus içindeki potansiyel tehditleri belirlediği öne sürülüyor. Ancak algoritmaların sivil bir toplanma ile askeri bir hareketliliği ayırt etme konusundaki hata payı, en büyük endişe kaynağı.

Hukukçulara göre, bir algoritmanın "sivil zayiat" hesaplaması yapması ile bir insanın etik ve hukuki muhakeme yapması arasında devasa bir fark bulunuyor. Makine öğrenimi modellerinin, geçmiş verilerdeki önyargıları sahaya yansıtarak sivil kayıpları "kabul edilebilir istatistiksel sapmalar" olarak değerlendirmesi riski, Cenevre Sözleşmeleri’nin ruhuna aykırı bulunuyor.

Sorumluluk Zincirindeki Boşluk

Bu teknolojilerin yarattığı en büyük hukuki açmazlardan biri de "hesap verebilirlik" sorunu. Klasik savaş hukukunda, bir savaş suçu işlendiğinde emri veren komutan ve tetiği çeken asker sorumlu tutulabiliyor. Ancak hedefi bir yazılımın belirlediği, insanın ise sadece prosedürel bir onay verdiği senaryoda, olası bir sivil katliamından kimin sorumlu tutulacağı belirsizliğini koruyor.

Uluslararası hukukçular, ABD ve İsrail’in bu uygulamalarının, savaş hukukunda "sorumsuzluk alanları" yaratarak tehlikeli bir emsal teşkil ettiğini belirtiyor. Tartışmalar, otonom silah sistemlerinin kullanımını sınırlayacak veya tamamen yasaklayacak yeni ve bağlayıcı uluslararası antlaşmaların acilen hayata geçirilmesi gerektiği çağrılarıyla alevlenmiş durumda.