Collector
Algoritma öldürünce kim yargılanır? | Collector
Algoritma öldürünce kim yargılanır?
BirGün Gazetesi

Algoritma öldürünce kim yargılanır?

Bir düşünce deneyi yapın: Bir silah, hedefini kendisi seçiyor, ateşleme kararını kendisi veriyor ve yanılıyor. Karşısında bir sivil var. Hayatını kaybediyor. Mahkeme salonunda sanık sandalyesi boş. Savcı kime dava açacağını bilmiyor. Yazılımcı, "Ben sadece kodu yazdım" diyor. Komutan, "Ben sadece sistemi devreye aldım" diyor. Şirketin hukuk müşaviri ise muhtemelen tatilde. Otonom silah sistemleri çağına hoş geldiniz. IEEE Standartlar Birliği bünyesinde bir araya gelen bağımsız uzmanlar geçtiğimiz yıllarda bir rapor yayımladı. Belge, "otonom silah sistemlerinin etik ve teknik zorlukları" başlığını taşıyor ve aslında son derece nazik bir dille şunu söylüyor: Bu işi nasıl yapacağımızı bilmiyoruz, kimin sorumlu olduğunu bilmiyoruz ve ne hakkında konuştuğumuz konusunda bile tam olarak anlaşamıyoruz. Raporun birinci maddesi "ortak bir dil oluşturma" sorunu. Yani insanlığın ölüm kararlarını delege etmeyi düşündüğü makineler için, henüz "özerklik" kelimesinin ne anlama geldiği konusunda uzlaşı yok. Güzel bir başlangıç. Meseleyi küçümsemek için söylemiyorum bunu. Tam tersine, bu kavramsal kaosun içinde sahada neler olup bittiğine bakın: İsrail, Habsora ve "Where’s Daddy?" adını verdiği yapay zekâ hedefleme sistemlerini Gazze’de kullanıyor; birincisi toplu istihbarat verilerinden hedef listeleri üretiyor, ikincisi cep telefonu konumlarını takip ederek kişileri izliyor. Sistemin adı olan "Neredesin Baba?" bir çocuğun ağzından çıkmış gibi duran bu ismin, bir hedefleme algoritmasına verilmiş olması, insanlığın kendisiyle kurduğu ilişkiyi özetliyor gibi görünüyor. İsrailli istihbarat yetkilileri bu sistemlerde yaklaşık yüzde onluk bir hata payı olduğunu kabul ediyor. Silikon Vadisi’nde bir e-posta uygulaması yüzde on hata yapsaydı, kullanıcılar derhal silerdi. Ama burada hata payı ölçü birimi insan hayatı. Toplantılarda kabul edilebilir bulunuyor. Tutanaklara geçiyor. Dosyalanıyor. ULUSLARARASI GÖRÜŞLER Şimdi asıl soruya gelelim: Bütün bunlar olurken uluslararası toplum ne yapıyor? Aralık 2024’te BM Genel Kurulu, otonom silahlarla ilgili bir kararı oylamaya sundu. Sonuç: 166 evet, 3 hayır. Karşı çıkan üçlü Belarus, Kuzey Kore ve Rusya’dan oluşuyordu. Dünyanın ezici çoğunluğu "bu işten rahatsızız" dedi. Harika. Ne oldu peki? Hiçbir şey olmadı. Çünkü ABD, İsrail, Rusya ve Hindistan gibi askeri güçlerin engellemeleri nedeniyle BM bünyesindeki uzmanlar grubu somut bir ilerleme sağlayamadı. Küresel vicdan 166’ya karşı 3 dedi; küresel silah sanayii ise umursamadı. IEEE raporu bu durumu "hukuki yükümlülüklerin belirlenmesi" başlığı altında ele alıyor ve kibarca şunu soruyor: Peki kim sorumlu tutulacak? Geliştirici mi, operatör mu, komutan mı, yoksa devlet mi? Rapor bu soruya cevap vermiyor. Veremez, çünkü cevap yok. Hukuk bu hıza yetişemiyor. Teknoloji ilerliyor, sorumluluk buharlaşıyor. Uluslararası Ceza Mahkemesi bireyleri yargılama yetkisine sahip, ancak otonom bir sistemin gerçekleştirdiği saldırıda kasıt unsuru nasıl değerlendirilecek? Bu soru, literatürde "sorumluluk boşluğu" olarak ifade edilen bir probleme işaret ediyor. "Sorumluluk boşluğu." Ne zarif bir ifade. Hukukçular, bir çocuğun hayatını kaybetmesinden kimsenin sorumlu tutulamadığı durumu bu şekilde adlandırıyor. Kelimeler çok şey anlatıyor bazen. RAPORLAR NE DİYOR? Öte yandan teknik sorunlar da az değil. IEEE raporu "insan kontrolünün sağlanması" meselesini altı ayrı alt başlıkta inceliyor; kullanıcı arayüzü tasarımından bilişsel kapasiteye, durumsal farkındalıktan kim ne zaman karar verir sorusuna kadar uzayan bir liste. SIPRI’nin Haziran 2025 raporuna göre hız baskısı ve otomasyon yanlılığı birleştiğinde, bir karar destek sistemi fiilen otonom silaha dönüşüyor. Yani insan kontrolünde zannedilen bir sistem, pratikte insanı devre dışı bırakmış olabiliyor. Askeri personel ekrana bakıyor, makine karar vermiş bile, insan sadece onaylıyor. Buna "anlamlı insan kontrolü" demek, bir trafik ışığında arabayı durdurmayı "sürücü kararı" saymak gibi. Rapora geri dönelim. Uzmanlar on ana başlık saptamış: ortak dil, insan kontrolü, hukuki yükümlülükler, sağlamlık, test ve değerlendirme, risk ölçümü, operasyonel kısıtlamalar, veri toplama, tedarik süreçleri ve askeri olmayan kullanım. Her başlığın altında onlarca alt sorun var. Bunların hiçbiri çözülmüş değil. Rapor bir bilgi tabanı oluşturma hedefiyle hazırlanmış; iyi niyetli, titiz, saygın bir çalışma. Ama dünya bu soruları tartışırken, sahadaki sistemler beklemiyor. Sürü zekâsıyla çalışan insansız hava araçları, tek bir operatör kontrolünde havalanıp kendi aralarında haberleşerek hedefleri otonom biçimde tespit ediyor ve eş zamanlı olarak canlı mühimmatla vuruyor. Merkezi bir kontrol birimine ihtiyaç duymuyor. Rapordaki "kim karar verir ve ne zaman" sorusu, bu gerçeklik karşısında neredeyse şiirsel kalıyor. Şunu da not etmek gerekiyor: Savaşın insan maliyeti düştükçe toplumlarda savaşa karşı direnç de düşüyor. Kendi kayıplarını vermeyen ordular, çatışmaya daha kolay giriyor. Otonom silahlar bu eşiği daha da aşağıya çekiyor. Çünkü hesap sormak için önce acı duymak gerekiyor; acı duymak için önce kaybetmek. Kayıplar yoksa kamuoyu baskısı da yok. Kamuoyu baskısı yoksa siyasi hesap verebilirlik de yok. Döngü tamamlanıyor: savaş kolaylaşıyor, algoritma öldürüyor, kimse yargılanmıyor. TEKNOLOJİ ŞİRKETLERİ GİDİŞATI DURDURUR MU? Bu noktada devreye giren bir başka ironi var. Anthropic, Pentagon’un sunduğu sözleşme dilinin Claude modelinin Amerikalılara yönelik kitlesel gözetim ya da tamamen otonom silah sistemlerinde kullanılmasını önleyecek yeterli güvenceleri içermediğini savunarak sözleşmeyi reddetti. Yapay zekâyı geliştiren bir şirketin, ordunun yapay zekâ talepleri karşısında etik sınır çizmesi. Bir teknoloji firmasının devletle "bu kadarı fazla" diyerek müzakere etmesi yeni bir fenomen. Ne kadar tutarlı ya da stratejik olduğu tartışılır, ama en azından soruyu soruyor: kim nereye kadar gider? IEEE raporu da bu soruyu soruyor. Akademi soruyor. BM soruyor. Sivil toplum soruyor. BM Silahsızlanma Dairesi Başkanı Izumi Nakamitsu Haziran 2025’te açıkça konuştu: makinelere insan öldürme yetkisi vermek ahlaken kabul edilemez; uluslararası hukuk bunu yasaklamalı. Makineler ise soruları duymuyor. Onlara bu yetki verilmemiş. Belki de asıl trajedi bu. Sistemi durduracak yeterli insani irade varmış gibi görünüyor, 166’ya karşı 3 bunu gösteriyor. Ama irade ile eylem arasındaki mesafe, bir algoritmanın hedef seçmesi kadar kısa değil. Uzun, karmaşık ve dolaylı. Sonunda bir soru kalıyor: İnsanlık bu silahları denetleme kapasitesine sahip olmadan geliştirmeyi seçiyor mu, yoksa seçemediğini mi sanıyor? Cevabı kim veriyor bilmiyorum. Ama sanık sandalyesi hâlâ boş.

Go to News Site