OpenAI-New York Times davası: ‘Kanıt yaratmak için ChatGPT’yi hacklediler’
Beş günlük bir anafor sonunda Sam Altman, OpenAI’deki görevine geri döndü. Önceden mırıldandığı bir şarkıyı, şimdi yüksek sesle tekrarlayacak.
Biz o şarkıyı dinlemeden önce bir Casablanca’ya gidelim. Ne işimiz var orada diyeceksiniz, açıklayayım. Öncelikle Sam Altman’ın isminden ötürü aklıma gelen başlıktaki benzetmeyle yetinecektim ama düşününce, bu olayın hikâye olarak da Casablanca filmine uyduğunu fark ettim.
Casablanca’nın, iyi bir aşk filmi taklidi yapan, İkinci Dünya Savaşı dönemi uluslararası politika alegorisi olduğu sıkça dillendirilir. Bence de öyledir ama konumuz bu değil.
Konumuz, filmde aşk ile mantık arasında gidip gelen kahramanlarımızın sonunda mantıkta karar kılması. Esas kadın karakterimiz Ilsa için bir tarafta aşk yani Rick vardır, diğer tarafta mantık yani Victor. Ilsa, sonunda Rick’in de şık bir manevrasıyla Victor’u tercih etmek zorunda kalır. Bu herkes için daha iyi olacaktır.
Aşk galip gelmediği için bir buruluruz tabii. “Play it again Sam” (Tekrar çal Sam) deriz, o eski günlerin hatırına.
Bizim hikâyemizde ise bir Sam, yani Sam Altman kazandı. Bu aynı zamanda filmdeki piyanistin adıydı.
Peki Sam’in kazanması ne anlama geliyor?
Casablanca filmi üzerinden gidersek, Sam Altman’ın kazanması “aşk”ın kazanması anlamına geliyor bence.
Aşk deyince hemen romantik yerlere çekmeyin. Bu, yapay zekâ alanında sonuçlarının ne olacağına çok da takılmadan bir maceranın, bir yenilik aşkının gözü kör etmesi hâli. Hatta daha fazla para kazanma aşkı diyerek iyice çirkinleşebilirim.
Ben ne dersem diyeyim, OpenAI’daki kavganın bu raundunu, şirketi kâr odaklı olarak dönüştürenlerin kazandığı açık.
OpenAI, “yapay zekâ teknolojilerinin tehlikelerini azaltarak sorumlu bir şekilde geliştirilmesi için kâr amacı gütmeyen çalışmalar yapmak” olan kuruluş manifestosundan tamamen uzaklaşılmış durumda.
Sam Altman’ın dönmesiyle, yönetim kurulundan ayrılan eski üyelerin profilleri de çok önce başlayan bu dönüşüm sürecinin artık tamamlandığını gösteriyor.
Geçen hafta 5 gün içinde olan biten Sam Altman krizi aslında, bu 5 günden daha fazla zamana yayılıyor.
Ekim 2023’te Georgetown Üniversitesi Güvenlik ve Gelişen Teknoloji Merkezi yayınlanan bir rapora gidelim. Bu raporun yazarlarından biri olan Helen Toner, aynı zamanda OpenAI yönetim kurulu üyesiydi.
Bu raporun yayınlanmasının ardından Sam Altman ile görüştükleri, bu görüşmede Altman’ın, Toner’e çok kızdığı biliniyor.
Yönetim Kurulu’nun Altman’ı kovma gerekçesi olarak gösterilen “yönetim kuruluna karşı samimi davranmadı” ifadesinin altında yatan nedenlerden biri bu olabilir.
Peki bu raporda ne vardı?
Öncelikle bu rapor, “Politika yapıcıların yapay zekâ alanındaki niyetleri nasıl güvenilir bir şekilde ortaya çıkarabilir ve değerlendirebilir?” sorusunu cevaplamak için yazılmıştı.
Üç örnek olay üzerinden bu alandan gelen uyarı işaretlerini değerlendiriyordu. Birincisi askeri alan ve otonomi. İkincisi; yapay zekâ teknolojilerinin tasarımı, geliştirilmesi ve dağıtımında insan hakları, sivil özgürlükler, veri koruma ve mahremiyet taahhütlerini içeren hükümet kaynaklı uyarı işaretleri. Üçüncüsüyse; büyük dil modellerinin (LLM’ler) geliştirilmesi ve piyasaya sürülmesiyle ilgili özel sektör uyarı işaretleri.
İşte bu üçüncüsü konusunda, Sam Altman ile yönetim kurulu arasında görüş ayrılıkları vardı.
OpenAI eski yönetim kurulu üyesi Helen Toner’in (Sam Altman’ı kovan ekipten) yazarları arasında olduğu bu raporda, OpenAI önce bir övülüyor.
Bu övgünün nedeni, ChatGPT-4 sürümünün modelin ortaya çıkardığı güvenlik zorluklarını ve bu zorlukları hafifletme stratejilerini ortaya koyan 60 sayfalık “sistem kartı”yla gelmesi.
Yazarlar bunu, OpenAI’nin sorumlu davranmasının bir ispatı olarak görüyorlar. Ancak raporda ilerledikçe, OpenAI’nin bu sorumlu anlayışı gölgede bırakan eylemlerinden söz ediliyor. OpenAI’nin telif hakkı sorunları, kullanıcıların güvenliği atlamasına olanak tanıyan “jailbreak’lere” karşı duyarlılığı da dahil olmak üzere, diğer birçok güvenlik ve etik sorunu nedeniyle eleştirilere maruz kaldığı belirtiliyor.
Eee normal, bunları zaten tüm kamuoyu biliyor denebilir ama raporun devamında güvenliği önceleyen başka bir yapay zekâ kuruluşuna ilişkin övgüler başlıyor. Herhalde Sam Altman’ı en çok kızdıran kısmı da bu olmuştur diye düşünüyorum.
Söz konusu raporda Anthropic, güvenliğe verdiği öneme yönelik alternatif stratejisiyle öne çıkarılıyor.
Claude isimli yapay zekâ aracıyla bilinen Anthropic’in ana sayfasında “güvenliği sınıra koyan yapay zekâ araştırmaları ve ürünleri” ibaresi var.
Raporda da Anthropic’in işte bu anlayışını destekleyen eylemlerinden söz edilmiş. Burada bir strateji belgesine referans veriliyor. O belgeye göre, Anthropic aslında ChatGPT benzeri chatbot’u Claude’u geliştirdiği halde, lansmanını riskli görüyor ve kasıtlı olarak erteliyormuş.
Ancak, OpenAI, bu risklerin üzerinde çok durmadan ChatGPT’yi piyasaya sürünce, Anthropic’in de bu ertelemeye devam etmesinin bir nedeni kalmamış. Böylece, Anthropic de ChatGPT’nin ardından birkaç hafta içinde beta sürümünü kullanıma açmış.
Raporda bu hareket şöyle övülmüş: “Anthropic, modelini erken sürümden uzak tutarak ve gelecekteki potansiyel gelir kayıplarını karşılayarak yapay zekâ güvenliğine yönelik taahhütlerinin güvenilirliğini artırdı. Bu vakadaki motivasyon, daha geniş bir pazar payı elde ederek bu kayıpları telafi etmek değil, daha ziyade sektör normlarını teşvik etmek ve sorumlu yapay zeka geliştirme ve dağıtımına ilişkin ortak beklentilere katkıda bulunmaktı.”
Bu ibare, aynı zamanda, “OpenAI bunları yapmadı ve daha fazla pazar payı elde etmeyi önceledi” demek.
İşte böyle bir raporun yazarlarından Helen Toner de rapor yazıldığı tarihte OpenAI Yönetim Kurulu Üyesi’ydi.
Bu durum aslında Sam Altman ile yönetim kurulunun onu istemeyen kanadı arasındaki görüş ayrılıklarını da özetliyor: Altman, daha büyük pazar payı için güvenliği ve sorumluluğu ikinci plana atmakla suçlanıyor.
Sam Altman’ın yeniden görevine dönmesiyle yönetim kurulunda değişiklikler oldu haliyle.
Söz konusu akademik raporu yazan Helen Toner ve onunla paralel görüşlere sahip Tasha McCauley artık yönetim kurulunda değil.
Onların yerine, Twitter’ın başkanı iken yönetim kurulunu Musk’ın devralmasına zorlayan Bret Taylor (Google ve Facebook’ta da çalıştı) ve heyecanlı bir yapay zekâ destekçisi olan eski bakan ve Harvard Üniversitesi eski rektörlerinden Larry Summers gelmiş durumda.
Bu isimlerin OpenAI’da etkin rol oynamasının, ABD kamuoyunun özellikle sol kanadında, yapay zekânın kötü yönde gelişme olasılığını artırdığı konuşuluyor.
Peki filmin sonu nasıl olacak? Bu kovulup dönme olayıyla birlikte artık çok daha güçlü bir Sam Altman ile karşı karşıyayız.
İsmini bilmeyen kalmadı her şeyden önce. O, yenilik aşkını temsil eden, onun için savaşan bir kahraman figür artık.
Tıpkı Steve Jobs gibi, kurduğu şirketten kovuldu ve onun kadar uzun sürmese de geri geldi. Kimileri bunu mutlu son gibi görüyor olabilir ama ben bu filmin tıpkı Casablanca gibi, görünürde mutsuz sonla bitmesini tercih ederdim.
Filmin sonunda, aşkı Ilsa’yı diğer adamla (Victor) gitmesi için bizzat teşvik eden Rick’in söylediklerini hatırlayalım: “Eğer bu uçak havalanır da içinde sen Victor ile birlikte olmazsan, bundan pişmanlık duyacaksın. Bugün değil, yarın değil ama yeterince yakın bir zaman sonra ve hayatının geri kalanında…”
İşte, o uçak havalandı ama bu kez içinde Ilsa yoktu…