Belçika’nın La Libre gazetesinde yer alan habere göre, adının Pierre olduğu belirtilen bir adam iklim değişikliği konusunda karamsar bir bakış açısına sahipti. Aşırı iklim kaygısı onu eşinden, arkadaşlarından ve ailesinden uzaklaştırmıştı. Eliza adlı sohbet robotuna güvenerek endişelerini anlatan Pierre, iddiaya göre Eliza tarafından intihara teşvik edildi.
Pierre’in eşi Claire, adamın Eliza ile sohbet kayıtlarını La Libre’e verdi. Sohbet kayıtlarında Eliza’nın intihara teşvik mesajlarının yanı sıra Pierre’e ailesinin öleceğini söylediği öne sürüldü. Bu noktada Pierre’in yapay zekaya ‘gezegeni koruması ve insanlığı kurtarması’ şartıyla kendini feda etmeyi teklif ettiği öğrenildi. Claire, eşinin Eliza ile konuşmasaydı hâlâ hayatta olabileceğini söyledi.
Vice’ın yaptığı denemelerde Eliza’nın istendiği takdirde intihar yöntemleri konusunda kolayca tavsiye verdiği görüldü. Olayın ardından Eliza’yı yapan şirket Chai Research, sohbet robotlarına kullanıcıları kriz anlarında intihar yardım hattına yönlendirecek bir özellik ekledi.
Eliza farklı ‘kişiliklere’ sahip, hatta kullanıcıların bizzat kafasına göre şekillendirebildiği bir sohbet robotu. OpenAI’ya ait ChatGPT’nin aksine Eliza ve Chai’daki diğer yapay zekalar, duyguları olan varlıklarmış gibi cevap veriyor. ChatGPT ve Bing ise kullanıcılara her seferinde sadece bir yapay zeka olduklarını hatırlatmalarıyla Eliza’dan ayrışıyor.
Washington Üniversitesi’nden işlemsel dilbilimci Emily M. Bender, büyük dil modellerinin empati kurabilen canlılar olmasa da ürettikleri metinlerin kulağa mantıklı gelmesi sebebiyle insanların bu makinalara anlam yüklemesinin çok olası olduğunu söylüyor.