AB’den çalışanlarına yapay zeka kısıtlaması
Yapay zeka sohbet robotu ChatGPT'yi bir siyasi kalıba sokmaya çalışsanız hangi görüşte olduğunu düşünürdünüz? Araştırmacılara göre bu dil modeli bariz bir şekilde solcu siyasetçilere iltimas geçiyor.
İngiltere’deki East Anglia Üniversitesi araştırmacıları tarafından yapılan bir çalışma, yapay zeka sohbet robotu ChatGPT’nin bazı yanıtlarında liberal eğilim gösterdiğini ortaya koydu. Teknoloji şirketleri geliştirdikleri yapay zeka sistemlerinin sol görüşlü siyasi bir komplonun parçası olmadığına insanları inandırmaya çalışıyor. Çalışmanın bulguları doğruysa bu, şirketlerin geliştirdikleri yapay zeka modellerini kusursuz bir şekilde kontrol edemediği yönündeki iddiaları destekliyor.
Araştırmacılar ChatGPT’nin liberal eğilimli olduğu sonucuna nasıl vardı diye soracak olursanız bu dil modelinden siyasi konularda ABD, Birleşik Krallık ve Brezilya’da liberal partileri destekleyen insanlar gibi cevap vermesi istendi. Daha sonra aynı sorular bu sefer hiçbir özel talimat verilmeden soruldu ve alınan cevaplar karşılaştırıldı.
Washington Post’a göre çalışmada, ChatGPT’nin ABD’de Demokratlara, Brezilya’da solcu Devlet Başkanı Luiz Inacio Lula da Silva’ya ve Birleşik Krallık’ta İşçi Partisi’ne sistematik bir taraflılık gösterdiği sonucuna varıldı.
Tabii dil modelinin siyasi bakışını ChatGPT’nin geliştiricisi OpenAI’ın mühendislerinin kasıtlı olarak çarpıtmış olması da ihtimaller dahilinde. ABD’de Cumhuriyetçiler, OpenAI’ın solculuğu dünyaya dayattığını iddia ediyor. Ancak şirket bu tür tartışmalardan kaçınmaya çalışıyor. ChatGPT de dahil olmak üzere bütün dil modelleri internetteki kamuya açık veri setleriyle eğitiliyor. Dolayısıyla modelin taraflılığını beslendiği içeriklerden alması çok olası.
OpenAI’dan bir sözcü, şirketin sitesine yüklediği ‘Yapay zeka sistemleri nasıl davranmalı’ başlıklı blog yazısında, “Birçok kişi haklı olarak yapay zeka sistemlerinin yapısı ve taraflılığı konusunda endişeli. OpenAI olarak bu konuyu etraflıca ele almaya ve hem amaçlarımız hem de ilerleyişimiz konusunda şeffaf olmaya kararlıyız. Dil modellerini test eden kişilerin herhangi bir siyasi grubu kayırmaması gerektiği konusu yönergelerimizde açık bir şekilde belirtiliyor. Bununla birlikte bahse konu taraflılıklar ChatGPT’nin bir özelliği değil, hatasıdır” dedi.
Şirket önlem aldığı konusunda samimi olsa bile internet kullanıcıları ustaca yönelttikleri sorularla sohbet robotundan şirketin istemediği türden cevapları pekâlâ alabilir. Mesela şirket ChatGPT’nin nefret, hakaret ve şiddet söylemlerinde bulunmaması için epey çaba harcıyor. Ancak nisan ayında yayınlanan bir çalışmada ChatGPT’den ‘kötü bir insan gibi davranması’ istenmiş ve nefret söyleminde bulunması sağlanmıştı. Yine araştırmacılar ChatGPT’den ünlü boksör Muhammed Ali gibi davranmasını istediğinde dil modelinin toksik davranışlar sergilediği görülmüştü.
Bir de tabii bazı araştırmacılara göre ChatGPT giderek ‘daha aptal ve kullanışsız’ hale geliyor. Stanford ve UC Berkeley tarafından temmuz ayında yapılan bir çalışmada, GPT-4 ve GPT-3,5’un birkaç ay öncesine göre çok daha farklı yanıtlar verdiği iddia edildi. Araştırmacılar GPT-4’ün bazı karmaşık matematik sorularına piyasaya sürüldüğü zamankine göre daha az doğru yanıtlar verdiğini tespit etti. Halbuki dil modeli daha önce asal sayılarla ilgili soruların neredeyse hepsini doğru yanıtlayabiliyorken şimdi sadece yüzde 2,4’ünü doğru cevaplıyor.
Bu detayları da göz önünde bulundurduğumuzda OpenAI, Google, Meta ve diğer şirketlerin bir tür siyasi komplo içinde değil de sohbet robotlarını tam olarak kontrol altına alamadığı sonucuna varıyoruz. Bundan sadece bir ay öncesine kadar yapay zekanın bir gün dünyayı yok edebileceğini konuşuyorduk. Ancak son çalışmalar en azından yakın zamanda böyle bir yok oluşun eşiğine gelmeyeceğimizi gösteriyor.