Yapay zekayla öldürmek
Savaş dediğiniz şey çok acımasız bir rakam oyunu.
Steven Spielberg’in ‘Saving Private Ryan’ filminin açılış sahnesi bu acımasız rakam oyununu anlatır:
Müttefik askerleri Normandiya’da karaya çıkmaktadır ve karşıdaki Alman makineli tüfekleri pek çoğunu öldürmektedir. Rakam oyunu burada devreye girer: Siz karaya her dakika o silahların ateşleyebileceğinden daha fazla insan çıkarmayı başarırsanız, sağ kalan askerler gider o silahları susturur.
Fog of War’dan dersler
Amerikalı bol ödüllü belgeselci Errol Morris’in ‘The Fog of War’ adlı filmi Amerika’nın eski savunma bakanlarından Robert McNamara’yı anlatır esas olarak.
Henüz izlememiş olanlara şiddetle tavsiye ettiğim bu belgeselin içinde çok sayıda çarpıcı şey var ama bana tuhaf biçimde en çarpıcı gelen, McNamara’nın genç bir subay olarak 2. Dünya Savaşı’nda oynadığı rol oldu.
McNamara iyi bir matematikçi ve istatistikçiydi; Hava Kuvvetleri’nde askerliğini yaparken Pasifik’te Amerikan savaş uçaklarının saldırılarının ‘verimliliğini’ ölçüyor ve bir sonraki saldırının daha ‘verimli’ olması için hedef belirleme çalışmaları yapıyordu.
Tam da Normandiya çıkartmasında gördüğünüz türde bir rakam oyunu yani. Bugün kaç kilo bombayla kaç kişi öldürdük, yarın aynı işi daha az bombayla yapabilir miyiz? McNamara’nın her günü bu hesapları yaparak geçiyordu.
Korkunç bir iş.
Bir zamanlar ‘Eğitim zayiatı’ vardı
Ben askerliğimi 80’li yıllarda yaptım. Bilmiyorum bu kavram hala kullanılıyor mu ama o zamanlar ‘Eğitim zayiatı’ diye bir şey vardı. Diyelim temel eğitim için askere gelen 1000 genç içinden üçünün ölmesi ‘kabul edilebilir’ bulunuyordu; çünkü rakamlarla oyun oynayan birileri tepede binde 3 eğitim zayiatını hedeflemişti, binde 0’ı değil.
Alarm ancak eğitimde ölenlerin sayısı binde 3’ü geçecek olursa çalıyor, komutanlar ‘Biz nerede hata yaptık’ diye bakmaya başlıyordu; daha önce değil. Aradan 40 yıl geçtikten sonra bugün hedef 0 eğitim zayiatı. Artık çok ender duyuyoruz temel eğitimi sırasında hayatını kaybeden askeri.
Ama savaşların acımasız bir rakam oyunu olma hali maalesef devam ediyor.
1945’te McNamara’nın yaptığını bugün yapay zeka yapıyor
Robert McNamara genç bir subay olarak hazırladığı savaş zararı tablolarıyla, bu tabloların vicdanında açtığı yarayla bir ömür boyu yaşadı. Vicdanında yaşadıklarını Küba füze krizinden Vietnam’a kadar bizzat rol aldığı olayları ömrünün son demlerinde Errol Morris’in belgeseline anlattığında herkes dondu kaldı.
Ama şunu unutmayın, McNamara’nın 1944-45’te yaptığı işi yapan bir sürü insan var bugün. Sadece insanlar da değil, bir de makineler var; yapay zekaya dayalı, çeşitli kaynaklardan gelen verileri bir araya getirip askerlere ‘hedef’ bulan yapay zekalar.
NSA’den gelen ilk itiraf
‘Verimli hedef bulan’ yapay zekaların varlığından Amerika’nın elektronik dinleme ve izlemeden sorumlu istihbarat teşkilatı NSA’nın o zamanki yöneticisi Michael Hayden’in bir açıklamasıyla, 2000’lerin başında haberdar oldum ben ilk kez.
2004 ve sonrasında Amerikan Merkezi Haberalma Teşkilatı CIA, Afganistan ve Pakistan’da sürekli SİHA’larla saldırı düzenleyip kendine göre Kaide yöneticisi veya Taliban yöneticisi olduğunu söylediği birilerini öldürüyordu. Tabii, terörist olduğu söylenen o kişiyle birlikte çoğu zaman eşi, çocukları ve diğer siviller de öldrülüyordu gökten düşen o füzeyle.
NSA yöneticisi Michael Hayden bu hedefleri tamamen yapay zeka algoritmalarıyla seçtiklerini ve CIA’ya bildirdiklerini söylüyordu.
Dehşete kapıldım o açıklamayı okuyunca. Binlerce kilometre ötede, Amerika’daki veri merkezinde bir bilgisayar ‘Falanca kişi şu an şu adreste’ diyor, yine binlerce kilometre öteden havadaki o SİHA’yı yöneten biri tetiği çekiyor ve aşağıda gerçek insanlar ölüyordu.
Kimin yaşayıp kimin öleceğine karar veren yapay zeka
Peki kimin öldürüleceğine makine, yani yapay zeka nasıl karar veriyordu?
NSA’nın bilgisayarında yüklü o ‘force learning’ algoritması belki onlarca, yüzlerce ‘data point’i göz önüne alarak Afganistan’ın bir köyündeki veya kasabasındaki bir kişinin ‘Yüzde 90 güvenirlikle’ terörist olduğunu söylüyordu. O ‘data point’ler telefon konuşmalarından, telefonun sinyal verdiği yerlerden, e-maillerden ve böyle başka ilgili ilgisiz binlerce şeyden oluşuyor olabilirdi.
Diyelim ki siz telefonla birisiyle konuştunuz. Konuştuğunuz kişilerden biri de sahiden bilinen bir teröristle konuştu. Derken telefonunuz o teröristin civarında sinyal verdi. Siz de artık ‘muhtemel terörist’siniz. Sistem hemen sizi yakından takibe başlıyor. Kafanıza füze düşmesi artık an meselesi.
Gazze’de ‘Sivilleri öldürmeyelim’ demeyen savaş
Amerikalıların bu saldırılarda kendilerine göre bir sivil zayiat hassasiyeti vardı. Zaten o yüzden yapay zekanın en az yüzde 90 güvenirlikte ürettiği hedeflerle ilgileniyorlardı.
Ama son 10 aydır Gazze’de devam eden savaşta İsrail’in böyle hassasiyetleri yok. Amerikan NSA’in sahip olduğu yapay zekanın benzerine, belki daha iyisine İsrail ordusunun daha önce burada bir kez anlattığım ünlü ve gizli ‘Birim 8200’ü de sahip. Onlar da öteden beri Gazze’de Hamas hedeflerini belirlemeye çalışıyorlar. Bir hedef belirlediklerinde de İsrail ordusu gidiyor o hedefi vuruyor.
Ama 7 Ekim’deki Hamas saldırıları sonrası başlayan Gazze savaşı bu yapay zekanın işini çok arttırmış durumda.
‘Lavanta’dan gelen ölüm listesi
Daha savaşın ilk günü, 7 Ekimde Hamas militanları henüz İsrail içinde İsraillileri öldürmeye ve kaçırmaya devam ederken, bu ülkenin hava kuvvetlerine bağlı uçaklar havalandı ve Gazze’yi bombalamaya başladı. Ben daha o gün merak etmiştim, acaba İsrail savaş uçakları hedeflerini nasıl belirlemişti?
Bugün bu sorunun cevabını maalesef biliyorum. ‘Birim 8200’ün ‘Lavanta’ adını verdiği yapay zekası anında onlara bombalamak için bir hedef listesi vermişti. Bugün de vermeye devam ediyor.
İsrailli bir gazeteci ve belgesel yönetmeni Yuval Abraham’ın 972.mag adlı web sitesinde yayınladığı son derece kapsamlı bir haber Birim 8200’ün bu hedef belirleme algoritmasını ve onun nasıl kullanıldığını anlatıyordu. Ortaya çıkıyor ki bu birimden bir albay daha önce uluslararası bir konferansta Lavanta hakkında sunum da yapmış, sistemin nasıl çalıştığını gururla anlatmış.
Kaç puanın var, senin canın kaç sivilin canına eşit?
Haberde insana kendi insanlığını sorgulatacak bilgiler vardı. Örneğin yapay zeka Lavanta, Hamas hedeflerine 0’dan 100’e uzanan puanlar veriyordu. Puanı orta sıralarda olan bir kişiyi öldürmek için İsrail ordusu yanında 20 sivilin de ölmesini ‘kabul edilebilir’ buluyordu. Yok eğer hedefin puanı 100’e yakınsa, 100 kişiye kadar sivil ölümü ‘kabul edilebilir’di. Örneğin İsrail geçen ay Hamas’ın meşhur komutanı Deif’i öldürmek için 80’den fazla sivilin de öldüğü bir katliam yaptı.
Önceki gün vurulan ve 100 sivilin hayatını kaybettiği okulda İsrail hangi yüksek puanlı hedefin varlığından şüpheleniyordu acaba?
Evet, İsrail o kadar kontrolsuz ki bazen 100 sivili öldürmelerine şüphe de yetiyor. Yani kendilerince önemli bir hedefin orada olduğundan emin olmadan, sadece şüphe üzerine de vurabiliyorlar.
Hedefe doymayan ordu istedikçe istiyor
Haberde İsrail ordusunun geride kalan 10 ay içinde bitmez tükenmez bir ‘hedef iştahı’na sahip olduğu, Birim 8200’dekilerin ordunun istediği kadar hedefi üretebilmek için Lavanta’nın terörist belirlemekte kullandığı eşik değerleri düşürdüğü söyleniyordu.
Birim 8200’ün Gazze’den derlediği elektronik istihbarat artık o kadar büyüktü ki, bunu İsrail’in kendi yerel veri merkezlerine sığdıramıyorlardı, o yüzden Google ve Amazon’la fiziken İsrail’de durması şartıyla veri merkezi kurmaları için anlaşmalar yapmışlardı. Yani öldürülecek hedeflerin seçilmesinde artık Google ve Amazon da istese de istemese de pay sahibiydi.
Yapay zeka hakkında olumlu veya olumsuz konuşurken bence bu yazdıklarımı da dikkate alın.
Not: Tam da bu konuda dün Serbestiyet’te yayınlanan Yunus Emre Erdölen’in ayrıntılı yazısını da meraklısına tavsiye ederim.