Sıkışık trafikte ambulansın peşine takılarak yol alan fırsatçı araç sürücüsünün çıkarı için hayatta her türlü kötülüğü yapabileceğini düşünürüm. Toplumsal hareketlerde de sosyal medyada da bunun izdüşümlerini ‘kendimce’ hemen fark ederim.
Gündemde her zaman, gerçekten yanlış giden bir şeyler vardır evet. O yanlış giden şeyleri o anda sıkışık trafikte ilerlemeye çalışan ambulans gibi düşünürüm.
Bir; hemen ambulansa yol verip bekleyen sürücüler vardır. Doğruluğundan emin olmadıkları bir şeyi paylaşmazlar örneğin.
İki; hemen ambulansın peşine takılan fırsatçılar vardır. Onlar da bire bin katarak olayın üstünden etkileşim ve takipçi kazanmaya odaklanır.
Sosyal medyada acil bir gündem olmayıversin, timeline’da hepsini bir arada görüveririz. Hem yol verenleri, hem de fırsatçıları. Yanlışlığa karşı verilen mücadelenin dalgasında sörf yaparak bir yerlere gelmeye çalışanların harmanıdır böyle zamanlar.
Yanlış anlaşılmasın, sosyal medyada veya hayatta bir şeylerin mücadelesini veren herkesi bu sınıfa koymuyorum kesinlikle. Ancak, evlere ve işyerlerine internet girdiğinden bu yana internet kullanan ve sosyal medya icadının ilk kullanıcılarından olan biri olarak bu iki türü artık çok rahat ayırabiliyorum. Çok zor ve bana özgü bir meziyet de değil zaten. Sizlerin de herkesin alkışladığı çok heyecanlı bazı insan ve hareketlere karşı böyle hisleri oluyordur belki. Bazen yanıldığımız da olur kuşkusuz. Nihayetinde insanız. Önyargılarımız da var, bilişsel uyumsuzluklarımız da.
Son zamanlarda yapay zekânın tehlikeleri ve risklerine karşı kopan yaygara da, hayranlık da bana bunu düşündürüyor.
Öyle ki, özellikle ABD medyasının teknoloji sayfalarında yapay zekâdan başka şey okuyamaz olduk. Haliyle bu güncel yazı konusu seçimlerimi de etkiliyor.
Yapay zekâyla ilgili en az üç yazı konusu önümde hazır olduğu halde çoğu kez saatlerce yeni yazı konusu arıyorum. Daha önemlisini bulamazsam, yapay zekâ gündeminden devam.
İşte bu hafta da yazı konusu düşünür ve her yerden üstüme koşan yapay zekâ gündeminden bir kaçış rampası var mı diye bakınırken Politico’da bir süredir bende de olan kuşkularla ilgili detaylı bilgi veren bir makaleye rastladım.
Brendan Bordelon’un yazdığı makalenin başlığı oldukça netti: “Milyarderler tarafından finanse edilen yapay zekâ felaket tellalları lobi faaliyetlerini artırıyor.”
Makale ABD’de yapay zekânın tehlikeleriyle mücadele eden ve kâr amacı gütmeyen iki kuruluşun finansmanına odaklanmıştı. Yapay Zekâ Politikası Merkezi (Center for AI Policy: CAIP) ve Yapay Zekâ Güvenliği Merkezi (Center For AI Security: CAIS) isimli bu kuruluşlar son dönemde Washington’da lobi faaliyetlerinde önemli nüfuz alanı bulmuştu.
Yılın son üç ayında lobi faaliyetlerine 100’er bin dolar harcama yapan bu iki kuruluşun nerelerden finanse edildiğine bakıldığında görülen düşündürücüydü. Finansmanda Facebook kurucularından Dustin Maskovitz’in finanse ettiği Open Philanthropy ve Skype kurucu ortağı Jaan Tallinn tarafından desteklenen Lightspeed Grants gibi yapay zekâ endüstrisiyle bağları olan kuruluşlar başı çekiyordu.
Yapay zekânın olası tehlike ve riskleriyle mücadele eden lobi kuruluşlarının hedefindeyse mevzuat ve yapay zekâ geliştiricilerine yeni lisans şartı getirilmesi talebi vardı. “Bunda ne kötülük var ki” diyenleri sonraki paragrafa alalım.
Felaket tellallarını eleştirenlere göre kötülük şurada. Bu iyi finanse edilen gruplar kıyamet senaryolarına odaklanarak daha küçük yapay zekâ firmalarının sektöre girişinin engellerini artırmanın peşinde.
Yani dev bir restoran zincirinin gelip şu şu şartları sağlayamayan restoran açamasın diye mevzuat çıkartmaya çalıştığını düşünün. Bu hem butik bir lokanta olarak kalmak isteyenlerin, hem de bugün küçük olsa da büyüme potansiyeli olanların dükkân açmasını engeller.
İşte yapay zekâ konusundaki felaket senaryoları üstünden yapılan lobinin bir tarafında bu var.
Üretken yapay zekâ dalgasının öncü kuruluşu OpenAI ve kurucusu Sam Altman’ın da lisanslama konusunda çok hevesli olduğu ve Beyaz Saray’ı da bu konuda yönlendirmeye çalıştığı biliniyor. Ayrıca OpenAI ve Anthropic’in de Open Philanthropy ile önemli bağlantıları var.
Hatırlayanlar olacaktır, geçen aralık ayında bu köşede Anayasal Yapay Zekâ konusunda bir yazı yazmış ve Anthropic’in yapay zekâ geliştirme yaklaşımına duyduğum sempatiyi ifade etmiştim.
Orada “maşallah dediğimiz üç gün yaşamaz” diye şerh düştüğümü hatırlıyorum. Şerhim henüz geçerli hale gelmiş sayılmaz. Ancak tüm bu kuruluşların kendi çıkarları için lobicilikten kartelciliğe her şeyi deneyebileceği konusunda şüphelerimizi tazeler.
Herkes oyunu kendi kurallarıyla oynama gayretinde nihayetinde. Büyüme potansiyeli olan küçükleri ve yeni girişimleri oyun dışında bırakmak birkaç büyük kuruluşun işine yarayacaksa iş birliğine gitmekten hiç çekinmezler. Yani kötülüğe karşı mücadele verdiğimizi sanırken biraz kerizleniyor olma riskimiz var, evet.
Peki tüm bunlar, yapay zekânın tehlike ve risklerinin olmadığını mı gösterir? Kuşkusuz hayır.
Yapay zekânın dezenformasyondan askeri alana, istihdam krizinden varoluş problemlerine türlü türlü riskleri var. Bu alanın elbette devletler ve uluslararası kuruluşlar tarafından düzenlenmesi gerekiyor. Fakat abartılı felaket senaryolarına ve Terminatör misali insanlığı yok etmesi fantezilerine çok prim vermemek gerek.
Temkinli olmak açısından kötü senaryoları bir parça abartmayı her zaman doğru bulurum. Haberlerin okunurluğunu artırdığı için medya da felaket senaryolarını çok sever.
Ancak, hep birlikte bir lobiye hizmet etmemek için daha bağımsız kaynakları bulup onlara da kulak vermek şart.
Yoksa “adamlar neler yapıyor ya” diye hayran hayran methiye düzmek de, “bu bir felaket, sonumuz geldi eyvah” diye dövünmek de sonunda aynı kapıya çıkabilir.