Yapay zekâ felaket tellallığı konusunda fazla gaza gelmemek gerektiğini daha önce bu köşede işlemiştim. Ucu yer yer komplo teorilerine varan bu senaryoların sektördeki küçük oyuncuları devre dışı bırakmak isteyen büyük şirket lobicileriyle ilgisi olduğunu düşünmek için makul şüphe ve kanıtlar vardı.
Ne var ki alan hem dikkat çekmek isteyen medya için hem de Hollywood filmleriyle beslenen kamuoyu için oldukça verimliydi. O nedenle bazen yapay zekânın aslında uzun yıllardır hayatımızı kolaylaştırdığını ve artık vazgeçilmezimiz haline geldiğini bile hatırlatmak gerekebiliyor.
Çünkü yapay zekânın tıptan gündelik hayata dek hayatımıza kattıkları bile felaket senaryolarının gölgesinde kalabiliyor. En basitinden, hiçbir şey aklımıza gelmiyorsa bile elimizden düşürmediğimiz, üzerinden kafamızı kaldıramadığımız telefonlarımızı ve onların işleyişindeki yapay zekâyı düşünelim.
Tabii tüm bu tartışmalar aslen OpenAI’ın Kasım 2022’de kullanıma açtığı ChatGPT dil modeli, yani üretken yapay zekâ ile harlandı. Felaket senaryolarına neden şüpheyle yaklaşmamız gerektiğini anlattığım o yazıyı “yapay zekânın riski yok mu?” sorusuyla bitirmiş ve dezenformasyon, istihdam krizi ve askeri alandaki risklerine odaklanmayı tavsiye etmiştim.
Time’da Billy Perrigo imzalı bir özel haber güncel bir risk alanını işaret ediyor. Üstelik Türkiye’nin gündeminde de özel bir yer tutan İsrail-Hamas savaşının kalbinden geliyor.
Perrigo’nun Time’daki haberine göre Nimbus Projesi 2021 tarihine uzanıyor, ancak gündeme gelmesi 200’den fazla Google çalışanının dahil olduğu “No Tech For Apartheid” hareketiyle oldu.
Google’ın İsrail’den sorumlu genel müdürü Barak Regev’in 4 Mart günü Manhattan’daki konuşması sırasında ayağa kalkan Eddie Hatfield adlı protestocu “Ben bir Google Cloud yazılım mühendisiyim ve soykırımı, apartheid’ı veya gözetlemeyi güçlendiren teknoloji geliştirmeyi reddediyorum” diye haykırarak Nimbus Projesi’ni ve “Apartheid için teknoloji yok” hareketini gündeme getirdi.
Üç gün sonra da Google’daki işinden kovuldu. Bu nedenle Google’dan ayrılan ya da ayrılmak zorunda kalan tek kişi de değildi. Time’ın haber için konuştuğu beş eski Google çalışanının ikisi de bu proje yüzünden istifa ettiğini bildirmişti. Time aynı zamanda beş de mevcut çalışanla görüşmüş ve bu hareketi doğrulatmıştı. Onların iddiasına göre Google’da şu an 200’den fazla çalışan bu örgütlenmeye dahildi ve yüzlercesi de destekliyordu.
Nimbus Projesi Google’ın Amazon ortaklığıyla yürüttüğü özel bir proje. 2021’de anlaşmayı duyuran İsrail Maliye Bakanlığı’na göre İsrail hükümeti ve ordusuna bulut bilişim hizmetleri sunulmasına yönelik bir proje bu. The Intercept’in yayınladığı 2022 tarihli Google belgelerine göre bu hizmetin içinde yapay zekâ destekli yüz algılama, otomatik görüntü kategorizasyonu ve nesne izleme gibi kalemler var.
İsrail basınında yer alan yapay zekâ hedefleme sistemiyle ilgili haberler de savaşta bu teknolojinin kullanıldığını doğrular nitelikte. Tüm bu iddialara karşılık Time’a konuşan bir Google Sözcüsü Nimbus Sözleşmesi’nin maliye sağlık, ulaştırma ve eğitim gibi bakanlıklarıyla ilişkili olduğunu, silahlar veya istihbarat servisleriyle ilgili son derece hassas veya gizli askeri alanlara yönelik olmadığını belirtmiş.
Bununla birlikte Google’ın İsrail Savunma Bakanlığı’na kestiği bir milyon doların üstündeki bir fatura da Time’ın gündeme getirdiği belgelerin içinde. Anlayacağınız ateş olmayan yerden duman çıkması söz konusu değil. Görülen o ki ateş de var, duman da. Buna karşılık yalanlamalar da var tabii.
Time’dan detaylarıyla okuyacağınız tüm bu ifşaatı biraz uzunca aktarmamın tek bir nedeni var. O da yapay zekâ için büyük felaket senaryoları beklemenin anlamsızlığını anlatabilmek. Bugün de bir şekilde askeri alanda felaketlere yol açacak şekilde kullanılabiliyor işte.
Google’ın protestocu çalışanlardan Hatfield’i kovmasından sonra istifa eden Güven ve Güvenlik Politikası Birimi çalışanı Vidana Abdel Khalek istifa e-postasında “Kimse Google’a saldırgan askeri teknoloji üstüne çalışmak için gelmedi” diyor ve savaşın başlangıcından bu yana İsrail’in Gazze’ye yönelik saldırılarında 13.000’den fazla çocuğun öldürüldüğünü vurguluyordu örneğin. Bunun üzerine durup Hollywood usulü bir felaket senaryosu beklemeye lüzum var mı takdiri size bırakayım.
Bu olayla ilgili gelişmeleri takip ederken Harvard Thinking podcast serisinin çok yakın tarihli bir bölümünde Harvard Üniversitesi bilgisayar bilimcilerinden Martin Wattenberg’in verdiği bir örnek tam üzerine geldi.
Wattenberg sanayi devrimi sırasında ilk buhar makineleri çıktığında insanların en çok endişe ettikleri şeyin makinelerin patlaması ihtimali olduğunu söylüyordu. Makinelerin patlaması endişesi çoğunlukla boş çıkmıştı ama sanayi devrimi sırasında korkunç çalışma koşulları yüzünden insanların çektiği acılar vardı. Süregelen dönemde ozon tabakası kaybolmaya başlamış, nükleer silahlar ortaya çıkmıştı.
Bugün yapay zekânın dünyayı ele geçirmesiyle ilgili senaryolar işte biraz o günlerde buhar makinelerinin patlaması endişesine benziyordu. Belki de odağımız yanlıştı.
Nihayetinde yapay zekâ uzun zamandır hayatımızda. Bu kısmı es geçip insanla rekabet edebilecek genel yapay zekâ (AGI) ihtimaline fazlaca odaklanmak üzerine de düşünmek gerek. Çünkü bu da bir tür körlük yaratıyor.
Bugünün kusursuza yakın savaş teknolojilerinde yapay zekânın rolü varsa bu silahları icat eden de kullanan da insanlarsa, çocuklar, siviller, insanlar öldürülüyorsa bir de üstüne yapay zekâ felaketi mi bekleyeceğiz yani?
İnsanlığın doğal zekâsı da yeterince acımasız olabiliyor, yapayından korkmak biraz lüks bile kaçıyor şu an.