Katil Robotlar Geliyor: Artık Bilim Kurgu Değil

"Katil robotlar" olarak bilinen otonom silahların teknolojik altyapısında önemli gelişmeler kaydedilirken, robotların kimi öldürüp kimi öldürmeyeceğinin nasıl belirleneceği sorusu ise hala cevapsız.



28-08-2018 09:01

Foto: Arşiv

Kamuoyunda "katil robotlar" olarak bilinen otonom silahların teknolojik altyapısında önemli ilerlemeler kaydedildi. Gelinen noktada otonom silahların öldürme kararını hangi hukuki kriterlere ve etik ölçütlere göre vereceği tartışılıyor.

Cenevre'de bir araya gelen "Belirli Konvansiyonel Silahlar Sözleşmesi Ölümcül Otonom Silah Sistemlerine Yönelik Hükümet Uzmanları Grubu" (CCW/GGE) 31 Ağustos'a kadar öldürücü silah ve robot sistemlerindeki güncel durumu masaya yatırıyor. Görüşmeler kapsamında BM üyesi 75 ülkenin temsilcisi tam otonom silah sistemlerinin oluşturduğu etik sorunları ve güvenlik açmazlarını ele alacak.

AF ÖRGÜTÜ: KATİL ROBOTLAR ARTIK BİLİM KURGU DEĞİL

Diğer yandan da Birleşmiş Milletler öldürme özelliğine sahip olan otonom silahların yasaklanmasını gündemde tutmaya devam ediyor. "Katil askeri robotlara" öldürme izni verilmesi durumunda bunun bir felaket senaryosunun hayata geçirilmesi anlamına geleceğine dikkat çeken Uluslararası Af Örgütü ise BM’den bu teknolojinin yasaklamasını istiyor.

Af Örgütü'nün yapay zeka ve insan hakları danışmanı Rasha Abdul Rahim bu kapsamda yaptığı uyarıda, "Katil robotlar artık bilim kurguların bir parçası değil. Yapay zekayla çalışan dronelardan kendi hedeflerini seçebilen otomatik silahlara varıncaya kadar ortaya çıkan bütün teknolojik gelişmeler uluslararası hukuku geride bıraktı" ifadelerini kullandı.

ROBOTLAR HANGİ HUKUK SİSTEMİNE GÖRE HAREKET EDECEK?

Robotların "uluslararası sözleşmeler çipi", "devletler arası hukuk çipi" ya da "insan hakları çipi" bulunmadığı gibi, bu alana ait verileri yazılıma dayalı bir algoritmayla ve "makine öğrenmesi" süreçleriyle söz konusu silah sistemlerine edindirmenin bir yolu olup olmadığı da henüz bilinmiyor.

Yapay zeka ve robotik kodlamada kaydedilen olağanüstü gelişmeler sayesinde otonom silah sistemlerine dikkate değer oranda özerklik yeteneği kazandırıldı. Öğrenebilen makineler tıpkı insan beynindeki nöronlar arası iletişim ağına benzer bir alt yapıyla kendi deneyimlerini analiz ederek, nöral ağ algoritması tabanında taktik ve strateji geliştirebiliyor.

4 YILDIR BM GÜNDEMİNDE

Birleşmiş Milletler, otonom silahlar konusunu 2014 yılından bu yana düzenli olarak görüşüyor. "Belirli Konvansiyonel Silahlar Sözleşmesi" (CCV) kapsamında yürütülen görüşmelere 75 ülkenin temsilcileri haricinde bilim insanları ve sivil toplum kuruluşu temsilcileri katılıyor.

"Ölümcül Otonom Silah Sistemleri" bu yıl da gündemin başlıca maddesi olarak öne çıkıyor. Şimdilik senaristlerin filmlerde işlediği "katil drone" konusunun yakın gelecekte gündemin ana maddelerinden biri olması bekleniyor.

SİLAHLARI KULLANMAK İÇİN ONAY BEKLEMİYORLAR

Öte yandan özerk silah teknolojilerinin dünyayı üç ayrı cepheye böldüğünü de hatırlatmak gerekiyor. Euronews'ta yer alan habere göre bazı kesimler bu silahların her türüne karşı çıkarken, diğer kesimdekiler otonom silahları sorgusuz sualsiz onaylıyor. Bir de Almanya ve Fransa başta gelmek üzere "orta yolu tercih eden" ülkeler bulunuyor.

Amerika Birleşik Devletleri, Rusya, İsrail ve İngiltere özerk silahların yasaklanmasına kesin bir dille karşı çıkıyor. Örneğin son dönemde Gazze'deki protestoculara göz yaşartıcı gaz atmak için yarı otonom dronelar kullanan İsrail de dahil olmak üzere bazı ülkeler şimdiden yapay zeka destekli silah sistemlerini kullanıyor. Bu ülkeler aynı zamanda yapay zekanın askeri amaçlar doğrultusunda kullanılmasına büyük kaynak ayıran ülkelerin başında yer alıyor.

OTONOM SİLAH SİSTEMİ NEDİR?

Uluslararası Kızılhaç Komitesi "otonom silah sistemlerini" hedefini özerk olarak arayan ve kendi başına belirlediği hedefe saldırıp tahrip edebilen sistemler olarak tanımlıyor. Buradaki "özerklik" ifadesi söz konusu öldürücü sistemin insan müdahalesi olmadan işlemesi anlamına geliyor.