"Katil robotlar" ahlaki ikilem yaratıyor
14 Kasım 2017Birleşmiş Milletler'in ölümcül ve kendisi karar verebilen silah sistemlerine ilişkin düzenlediği Konvansiyonel Silahlar Kongresi, Pazartesi günü İsviçre'nin Cenevre kentinde başladı. Konuya dair oturumlar söz konusu "katil robotlara" uluslararası yasak getirilmesi için yapılan çağrıların ardından gerçekleşiyor.
Yapay zeka endüstrisinin önde gelen 100'den fazla ismi Ağustos ayında yayımladıkları bir açık mektupla, bu robotların "savaş alanında üçüncü bir devrim" yaratacağı uyarısında bulunmuştu. Açık mektup, bu tip robotların bir kez geliştirilmesi durumunda silahlı çatışmaların boyutunun şimdiye kadar görülenden çok daha büyük olacağı ve insan havsalasının alabileceğinden daha hızlı bir hâle geleceği öngörüsünde bulunuyor. Esas korkutucu olan şey ise "kimin yaşayıp kimin öleceğine bu makinelerin karar verebilecek olması".
Yapay zekâ ve robot teknolojisinde son yıllardaki hızlı gelişmeler nakliyat veya tıp alanlarında kolaylıklar sağlasa da kendi kararını verebilen silah sistemleri, düşmanlarla savaşmak için ortaya çıkan ve insanlar tarafından kontrol edilmeyen robotların bulunduğu "Terminatör" filminden görüntüleri akla getiriyor.
Kendi kararını verebilen ölümcül silah sistemleri nedir?
Kendi kararını verebilen ölümcül silah sistemlerinin tanımının ne olduğu konusunda bir mutabakattan bahsedilemez. İnsan kontrolü olmadan hedef alabilen ve ateşleyebilen sistemlere genellikle bu isim veriliyor. Bu tip sistemler, özünde, bir kere çalıştırıldıktan sonra insan kontrolüne ihtiyaç duymadan işleyen, yerleşik bir donanım veya yazılım içeren makineler olarak tanımlanıyor. Durumsal bağlamı değerlendirip buna uygun bir cevap veren yapay zekâ ile çalışıyorlar.
İnsansız hava araçları, akıllı bombalar ve savunma bataryaları belli oranda bağımsız çalışıyor ancak tamamen insan kontrolünden bağımsız değiller. Birçok ülkenin ordusu, mayın, tuzak ve patlamamış düzenek ararken insanların kontrol ettiği robotları kullanıyor.
Pensilvanya Üniversitesi'nden siyaset bilimci Michael Horowitz'e göre, çoğu insan savaşın robotlaştırılması ve bilgisayarlarla kontrol edilir hâle getirilmesinin önemini küçümsüyor. Holowitz'e göre, modern sensör ve mühimmat kullanılmaya başlanması insanlar ve savaş alanları arasına şimdiden büyük bir mesafe koydu, bu yüzden de yeni silah teknolojileri tartışılırken bunların mevcut sistemlere ne kadar benzediği ya da onlardan ne ölçüde ayrıldığını anlamak gerekiyor.
Dünya üstünde kendi kararını verebilen ölümcül silah sistemleri var mı?
Tam olarak yukarıdaki tanıma uygun sistemler henüz geliştirilmedi. Ancak buna en yakın silah İsrail'in geliştirdiği IAI Harpy. Bu insansız hava araçları, kara birliklerince fırlatıldıktan sonra otonom olarak uçup, daha önceden tespit edilen kriterlere uyan bir radar tespit ettiğinde, bu hedefe yönelik kamikaze saldırısı gerçekleştiriyor.
Güney Kore de komşusu Kuzey Kore ile olan sınırını korumak üzere nöbetçi silah sistemleri geliştirdi. Gözetleme ve takip sensörlerinin yanı sıra otomatik ateşleme özelliğine sahip olan bu sistem tamamen otomatik hâle getirilebiliyor. Ancak sistem hali hazırdaki hâliyle ateşleme için insan onayına ihtiyaç duyuyor.
Ahlaki boyut
"Katil Robotları Durdurma Kampanyası" adındaki sivil toplum örgütü öldürücü otonom silahların yasaklanmasını talep ederken, sensörler ve yapay zekâdaki ilerlemelerin gelecekte insan müdahalesine ihtiyaç duymadan hedef alıp, ateş edebilen silahların yapımını mümkün hâle getireceği konusunda uyarıyor.
Her ne kadar seyir füzesi gibi örnekler geleneksel bombalara nazaran sensörleri ve karasal yönlendirme sistemleriyle hedef odaklı saldırılar düzenleyip, arzu edilmeyen kayıpları azaltabilse de uzmanlar günümüzde kullanılan yarı otonom ve insan kontrollü silah sistemlerinden tam otonom sistemlere geçişin yaratacağı ahlaki problemlere dikkat çekiyor.
Uzmanların görüş bildirdiği açık mektupta, "önemli ölçüde insan kontrolünü devre dışı bırakan, hedefin meşruluğuna karar veren ve öldürücü bir güç kullanan otonom silah sistemlerinin ahlaki çizginin yanlış tarafında yer aldığı” vurgulanıyor.
Sorumluluk kimde olacak?
Tamamen otonom bir sistemdeki herhangi bir bozukluk karmaşık savaş durumlarında sivillerin hedef alınması ya da dost ateşi gibi durumlara neden olabilir. Sistem hatası ihtimali veya kısıtlı insan müdahalesi olması sebebiyle savaş hukuku ve askeri politikalar açısından sorumluluğun kimde olduğuna ilişkin soruları da ortaya çıkıyor.
Oxford Üniversitesi'nde insansız hava araçlarına ilişkin çalışma yürüten Ulrike Franke, otonom bir sistemin çalışmasında büyük bir etkisi bulunmayan bir komutanın ne ölçüye kadar sorumlu tutulabileceğini soruyor. Bu tip kaygılar taşımayan kötü niyetli siyasi rejimler söz konusu sistemleri kullanarak kendi insanlarını bile hedef alabilir. Aynı şekilde "katil robotlar” teröristlerin elinde de oldukça yıkıcı sonuçlar doğurabilir.
Ancak tam otonom silah sistemlerinin geliştirilmesinin savaştaki insan rolünü azaltacağı fikrine herkes katılmıyor.
ABD'li emekli Albay Brian Hall, Temmuz ayında yazmış olduğu bir anazlide, "Otonom silah sistemlerinin esas avantajı insan kararını desteklemesinden geliyor yoksa onun yerini almasından değil” dedi. Hall yine de silah bilimindeki ve teknolojisindeki gelişmeleri göz önüne alarak otonom silahların yapabileceği şeylerin tahmininin zor olduğunu konusunda uyarıyor ve bu durumun ileride hukuki ve siyasi değişikliklere neden olabileceğine dikkat çekiyor.
Silahlanma kontrolü
ABD, Rusya, Çin ve İsrail'in dahil olduğu bazı ülkeler düşmanlarına ilişkin kaygıları sebebiyle ölümcül otonom silah sistemleri konusunda araştırma ve geliştirme faaliyetleri yürütüyor. Ancak bu ülkeler kendilerini insani, ahlaki ve hukuki sınırlamalarla bağlı hissetmezlerse önümüzdeki yıllarda teknolojinin ilerlemesiyle yürütülen bu çalışmalar "katil robot" yaratılmasıyla sonuçlanabilir.
Rusya Devlet Başkanı Vladimir Putin, Eylül ayında "Yapay zekânın lideri kimse dünyanın hakimi o olacak” dedi.
Uzmanlara göre, otonom silahların savaş meydanındaki potansiyel gücü kaygılara neden olsa da bu silahların yasaklanması ya da kurala bağlanması bir o kadar zor.
Hall'a göre bu, bir silahlanma kontrolü ikilemi: "Silahların ordulara faydası arttıkça onları yasaklamak ya da kurala bağlamak da bir o kadar zorlaşıyor. Ayrıca otonom silahların kapsamına nelerin girdiğinin belirsiz olması tartışmayı karmaşıklaştırıyor. Kapsam belirsiz oldukça ülkeler bu konudaki kuralları ya da yasakları kabul etme konusunda isteksiz oluyor.”
Franke'ye göre ise bu silahların doğrudan yasaklanması ya da silahlanma kontrolü kapsamına alınması olası değil. Bu sistemler nükleer silahlarda olduğu gibi tek tek sayılamadıkları için kontrol anlaşmaları kapsamına alınmıyorlar. Kimyasal silahlardan farklı olarak tümden yasaklanamıyorlar. Franke şöyle diyor:
"Ölümcül otonom silah sistemlerinin kesin bir tanımını yapmadan, karşınızdaki silaha bakıp silahın otonom silah sistemi olup olmadığına karar veremezsiniz.”
Chase Winter
© Deutsche Welle Türkçe