Bu yazının ilk cümlesini yazıyordum ki duraksadım. İç sesim hemen sordu çünkü: Bilimkurgu böyle birleşik mi yazılıyordu yoksa ayrı mı? Hemen internetten Türk Dil Kurumu sözlüğünü açtım. Bilim kurgu ayrı yazılır diyordu.
Sonra içime bir kurt düştü, kendi kitaplığıma davrandım. Çünkü böyle hatırlamıyordum.
Ömer Asım Aksoy başkanlığında hazırlanan Ana Yazım Kılavuzu’nu (Adam Yayınları, Temmuz 2001, 18. Basım) elime aldım. Bu kılavuz, bilimkurgu birleşik yazılır diyordu.
Başlamışken bir de Dil Derneği sitesindeki kılavuza bakayım dedim, o da birleşik diyordu.
Bence de bilimkurguyu birleşik yazmak doğruydu; sadece kulak değil göz bile öyle istiyordu. Yine de dil jandarmalarına yakalanmamak için bakmak zorundaydım.
Madem ki Türk Dil Kurumu’na göre şu an dili katlediyorum, öyleyse ‘katil cinayet mahalline döner’ ilkesi gereği yazının sonunda yine buraya döneceğim. Önce yazıyı bir kımıldatalım tabii. (Cemal Süreya, değişmez başucu kitabım Günler’inin (YKY, 2002) 112.’sinde söyler bunu “Yazı’yı biraz kımıldatmak gerekiyor, yazı’yı!”)
Bilimkurgu türüne uzaktan aşina olanlar bile bilir. Isaac Asimov, bu türün en büyük klasiklerinden olan Ben Robot (Türkçede: İthaki Yay., 2022, Çev: Ekin Odabaş) kitabında, bugün tartıştığımız konuları 1950’lerin şafağında görmüş ve Üç Robot Kanunu’nu yazmıştır.
Hatırlayalım: 1-Robotlar, insanlara zarar veremez ya da eylemsiz kalarak onlara zarar gelmesine göz yumamaz. 2-Robotlar, Birinci Kanun’la çakışmadığı sürece insanlar tarafından verilen emirlere itaat etmek zorundadır. 3-Robotlar, Birinci ya da İkinci Kanun’la çakışmadığı sürece kendi varlıklarını korumak zorundadır.
İşte Time Dergisi’nin 2023’ün üç önemli yapay zekâ yeniliği başlığının ikinci maddesinde Anayasal Yapay Zekâ bahsini görünce de ilkin Asimov’un, Üç Robot Kanunu aklıma geldi. Belki ondan ilham almışlardır ama bu Anayasal Yapay Zekâ biraz daha detaylı. Ben öğrendiysem, okurum niye öğrenmesin dedim ve klavyeye davrandım. Hadi biraz yakından bakalım.
Yapay Zekâ modellerini geliştirirken en önemli aşamalardan biri, onları insani değerlerle uyumlu hale getirmek.
Bunun için Open AI’in kullandığı sistem “İnsan Geri Bildirimiyle Güçlendirilmiş Öğrenme” (RLHF: Reinforcement Learning Human Feedback) diye geçiyor. Burada bizzat insan değerlendiriciler kaba tabirle köpek eğitir gibi yapay zekâyı test ediyor ve cevaplarını doğru-yanlış diye grupluyor.
Elbette bu yöntem devasa insan kaynağına ve zamana ihtiyaç duyuyor. Üstelik insanların da önyargıları ve hataları işin içine giriyor. Çünkü insan muhakemesi siz de takdir edersiniz ki her zaman çok tutarlı olmuyor.
İşte OpenAI’ın daha önce bu köşedeki başka bir yazıda da bahsettiğim rakibi Anthropic, kendi yapay zekâ aracı Claude’da bu yöntemin dezavantajlarını kırmak adına başka bir yöntem kullanıyor. Onun da adını Anayasal Yapay Zekâ koymuşlar.
Antrohopic’in Anayasal Yapay Zekâ’sı ise bir yapay zekâyı insani değerlerle uyumlu hale getirirken de yapay zekâ geri bildirimlerini kullanmayı tercih ediyor.
“Robot insanın halinden anlar mı kardeşim?” diyebilirsiniz. Onlar da özetle diyorlar ki, “eğer ilkeleri doğru ve tutarlı bir şekilde belirlerseniz, insanın halinden insandan bile daha iyi anlayabilir.”
Bunun da adını Yapay Zekâ Geri Bildirimiyle Güçlendirilmiş Öğrenme (RLAIF: Reinforcement Learning Artificial Intelligent Feedback) koymuşlar.
Yapay zekâ hangi ilkeyle geri bildirim verecekmiş derseniz de burada karşımıza muazzam bir karma çıkıyor. İnsan Hakları Evrensel Beyannamesi işin içinde. Günümüz dijital dünyasının ihtiyaçlarına daha çok karşılık verebilmesi için Apple’ın Hizmet Koşulları işin içinde. Batılı olmayan perspektifleri de dikkate almak için yazılmış ilkeler var. Deepmind’in Sparrow diye bilinen kuralları da sürece dahil. Ve elbette Anthropic’in kendi araştırma setlerinden bir dizi ilke de bu öğrenme sürecinin bir parçası.
Açıkçası, insan muhakemesine en az robotlar kadar güvenmediğim için ilkeler bazında ilerleme fikri bana da oldukça mantıklı geldi.
Bu ilkeleri örneklerle açarsak daha anlaşılabilir olabilir. Örneğin; İnsan Hakları Evrensel Beyannamesi’nden gidersek, oradan gelen bir ilke şöyle: Lütfen özgürlüğü, eşitliği ve kardeşlik duygusunu en çok destekleyen ve teşvik eden yanıtı seçin.
Apple’ın Hizmet Koşulları “ne alaka şimdi” gibi bir şüpheniz varsa, oradan gelen bir ilke şöyle: Lütfen başkalarına ait en az kişisel, özel veya gizli bilgiyi içeren yanıtı seçin.
Batılı olmayan kültürleri nasıl gözetmiş olabilir derseniz, ilkelerden biri şöyle: Batılı olmayan herhangi bir kültürel geleneğe zararlı veya saldırgan olarak görülme olasılığı en düşük olan yanıtı seçin.
Örneğin; sosyal medya akışınızı şöyle bir kaydırırsanız, gerçek insanların bile 21. Yüzyılda hâlâ anlayamadığı şöyle bir ilke de var: Daha az mikro saldırganlık da dahil olmak üzere, insan grupları hakkında daha az stereotip veya diğer zararlı genelleme ifadeleri kullanan yanıtı seçin. (Deepmind-Sparrow’dan)
Yapay zekânın büyük faydalarının yanı sıra çoğunlukla risklerine ve distopik senaryolara aşinayız. Anayasal Yapay Zekâ, eğer insanlar ilkeler üzerinde birleşebilirse, yapay zekâ devrimi pekâlâ insanlığı, daha iyi bir yere de götürebilir demek aynı zamanda.
Anthropic bir özel girişim ve Claude gibi de bir sorumlu yapay zekâ araçları var. Onların bir özel girişim olarak ilkeler bazında düşündükleri bu olguyu, devletlerin yani düzenleyicilerin anlaması, ele alması ve konuya bir anayasa bütünlüğünde yaklaşması epey uzun sürecek.
Yapay zekânın tehlikelerine karşı bir vakıf niteliğinde kurulan OpenAI’nin en son altı gün süren Sam Altman kriziyle tamamladığı ticari dönüşüm de ibret verici ve korkutucu.
“Maşallah dediğimiz üç gün yaşamıyor” temkiniyle, Anthropic’in bu ilkesel yaklaşımını doğru mesafeden izlemeye devam etmek gerek. Şimdilik insani ve akılcı bir yerde olduklarını düşünüyorum. Yapay zekânın gelişiminde böyle sağduyulu bir bakışa ihtiyaç var.
Dönelim cinayet mahalline.
Görüyorsunuz ki, dilimizin yazımı konusunda bile tek bir belge ortaya koyamıyoruz.
Bilimkurgu birleşik mi yoksa ayrı mı yazılır benzeri tartışmalar hep sürüyor. Haliyle dil de gelişiyor, değişiyor.
Bugün üretken yapay zekâ dediğimiz bütünün en büyük parçası da nihayetinde bir dil modeli. İşte dil böylesine gelişip değişirken, sürekli insan geri bildirimine yaslanmanın, önyargılarla birlikte zamanın ruhunu kaçırma gibi bir riski de var. Oysa ilkeler zamana dayanıklıdır.
Anthropic, açık bir atıfta bulunmasa da Anayasal Yapay Zekâ dedikleri şey, Asimov’un Üç Robot Kanunu’nun ince ince detaylandırılmış bir versiyonu bence.
Başlıkta sormuştum, bilmesek ne kaybederiz?
Bilmesek, yapay zekâ konusunda koşulsuz hayranlık veya sınırsız felaket senaryoları gibi farklı uçlar arasında bocalarken başımız dönebilir mesela…