Şirketin adını daha önce duymuştum ama ne yaptığına dair bir fikrim yoktu doğrusu. Bu konuda fikir sahibi olmamı sağlayan, 10 Haber’in iki hafta önceki “Yapay zekâ şirketi Anthropic Amerikan piyasasını ve şirketler dünyasını nasıl sarstı” başlıklı haberi oldu. Haber, bana göre, insanların işini elinden alan yeni bir gelişmeyi duyuruyordu. Anthropic’in yapay zekâ (YZ) robotu “Claude” üzerinde çalışan yeni ürünü “Cowork” (birlikte/ortak çalışma), masa başı iş süreçlerini kısaltmak ve insana bağlı olmaktan çıkarmak için gerekli yazılımları, yazılım uzmanı olmayan kişilerin de üretebilmesine olanak sağlıyordu.
Bu seferki, sonuçlarının yalnız beyaz yakalı çalışanlar değil, onların bugün çalıştığı bazı hizmet şirketleri için de “kötü olacağını” yatırımcıların da onayladığı bir üründü bana göre. Çok önemli bir gelişmeye imza atmış olsalar da, Anthropic’i de zihnimdeki öbür YZ şirketlerinin yanına gönderdim.
Anthropic bir kez daha önüme geldiğinde, meselelere tek boyutlu bakmanın sakıncalarını bana öğretmeye niyetli gibi görünüyordu. Bu kez, YZ şirketlerinden tamamen umudumu kestiğim bir konuda, “yapay zekâ etiği” konusunda, ısrarla bazı ilkeleri savunması ve bunun için Pentagon’a, dolayısıyla Trump yönetimine kafa tutmasıyla dikkatimi çekmişti.
Bir tarafım, “böyle bir şey ilk defa oluyor, bu iyi bir şey” derken, bir tarafım da “fazla heveslenme, iyi bir şey olacaksa olmaz,” diyordu. Anlatayım, kararı siz verin.
Anthropic’in “kırmızı çizgileri” Pentagon’u çileden çıkardı
Aslında birkaç aydır süren, teknolojiyle ilgilenenlerin bildiği ve geçen hafta üst üste çıkan haberlerle geniş kamuoyuna mal olan kriz, Anthropic’in yapay zeka robotu Claude’ın (geçen yıl Trump yönetiminin koyduğu adıyla) ABD Savaş Bakanlığı / Pentagon tarafından kullanılmasına ilişkindi. Pentagon, kullandığı tüm yapay zeka modellerini “yasal çerçeve içindeki tüm kullanım amaçları” için herhangi bir kısıtlamaya tabi olmadan kullanabilmeyi talep ediyordu. Pentagon ile iş birliği yapan diğer şirketler, OpenAI, Google ve xAI, bu koşulu büyük ölçüde kabul ediyordu. Pentagon ile bu şirketler arasında bu konuda bir sorun çıkmamıştı.
Buna karşılık Anthropic’in “kırmızı çizgileri” vardı. Şirket kendi yapay zeka araçlarının iki alanda kullanılmasını istemiyordu: Otonom silahlar ve kitlesel gözetleme faaliyetleri. Anthropic’in kırmızı çizgilerini anlayabilmek için bu iki kavramı açmamız lazım.
Otonom silahlar, bir insanın denetimi olmadan karar veren ve ateş eden silah sistemlerine deniyor. Örneğin insansız bir hava aracının, sadece yapay zeka verilerini değerlendirerek harekete geçtiğini, hedefe yöneldiğini ve yanında yöresinde kime zarar verdiğine bakmadan hedefini ortadan kaldırdığını düşünelim.
Niye “yanında yöresinde kime zarar verdiğine bakmadan” diyorum? Çünkü bu mesele daha önce gündeme geldi. Gazze’de İsrail ordusu mensupları, yapay zeka verilerinden hareketle hedef tespiti yapmış ve saldırının sivillerin de ölümüne yol açmasını umursamadan, hedeflerini “imha etmişlerdi.” Üstelik YZ tarafından belirlenen hedeflerin hatalı olduğu durumlar da vardı. (Hedef tespitinin önemli bir unsuru olan yüz tanıma sistemlerinin koyu renk tenli kişilerde hata yapma olasılığının yüksek olduğu uzun süredir tartışılan bir konu.)
Şirketin ikinci kırmızı çizgisi daha çok ülke içine yönelikti; modelin Amerikan vatandaşlarına yönelik kitlesel gözetleme faaliyetlerinde veya istihbarat operasyonlarında kullanılması istenmiyordu. Burada da YZ araçlarının otokratik yönetim biçimini destekleyecek, Amerikan vatandaşları arasında ırkçılığa varan ayrımcılık yapacak, muhalefet üzerinde baskı uygulamanın aracı haline getirilecek şekilde kullanılmasını engellemeye çalışan bir tutum söz konusuydu.
Diğer YZ şirketlerinden farklı bir yolda
Anthropic, güvenlik konularında uzun süredir sesini yükselten bir şirket olarak biliniyordu. 2023 yılında bir “podcast” röportajında şirketin CEO’su Dr. Dario Amodei, yapay zekanın insanlığı yok etme olasılığının yüzde 10 ile 25 arasında olduğunu söylemişti. The New York Times’ın (NYT) aktardığına göre, şirketin, ürettiği teknolojinin şiddeti kolaylaştırmak için kullanılmasını engelleyen katı kuralları vardı.
Le Monde’un haberine göre, Amodei 26 Ocak’ta kişisel web sitesinde yayınladığı “Teknolojinin Ergenlik Çağı” başlıklı uzun makalesinde, “demokratik hükümetler tarafından bu teknolojilerin kötüye kullanılmasına” karşı uyarıda bulunmuş ve “hükümetlerin yapay zeka ile yapabileceklerine sınır getirilmesi” çağrısı yapmıştı. “Bizi otokratik düşmanlarımıza benzetecek yollar hariç, YZ’yı ulusal savunma için her şekilde kullanmalıyız” diye yazan Amodei, “iç kitlesel gözetim”, “kitlesel propaganda” ve otonom silahların “insanlığa karşı suç” olarak değerlendirilebileceğini dile getirmişti.
Söz konusu olan sadece Trumpgillerle taban tabana farklı politik görüşleri olan ve bunları da medyada, sosyal medyada açıkça ifade etmekten çekinmeyen bir CEO değil. Anthropic’in YZ modeli Claude’un yapısı da diğer YZ modellerinden köklü bir farklılık gösteriyor.
Claude’un en ayırt edici özelliği, “Anayasal Yapay Zeka” (Constitutional AI) prensibiyle eğitilmiş olması. Bunu, YZ’nın belirli etik ilkelere bağlı kalacak şekilde eğitilmesi olarak da tanımlayabiliriz. Claude, insan eliyle denetlenmeyi destekleyen, zararlı eylemlerden kaçınan bir YZ olarak tasarlanmış. İnsan Hakları Evrensel Beyannamesi’nin ilkelerini gözeten, Batı dışı kültürlerin ve değerlerin de dikkate alınmasını sağlayan bir anayasaya (Claude’s Constitution) bağlı olarak çalışıyor. Tıbbi tavsiye vermek gibi hassas konularda, internet kaynaklarını tarayıp görüş bildiren değil, kendisine verilen özel yönergelere uyarak davranan bir yapıya sahip. Öğrencilerin ödevlerini yapıp eline vermiyor, ödevini nasıl yapacağı konusunda yol gösteriyor.
Modern teknolojinin kötüye kullanılmasının önüne geçecek kurallara uyarak çalışan, örneğin biyolojik silah hazırlama, çocuk istismarı materyali üretme veya büyük ölçekli siber saldırılara yardım etme gibi konularda kesin yasaklamaları olan bir YZ modeli Claude. Bir kuralın neden var olduğu öğretildiği için, daha önce karşılaşmadığı yeni durumlarda bile, Claude’un doğru muhakeme yapabileceği belirtiliyor.
Sahnede yan yana düşen düşman kardeşler
Şubat 2026 itibariyle piyasa değeri 380 milyar dolar olan Anthropic’i, 2021 yılında, Sam Altman’ın OpenAI’ının yedi eski çalışanı kurmuş. Ekibin liderleri Yönetim Kurulu Başkanı Daniela Amodei ve CEO Dario Amodei kardeşler… Dario Amodei, OpenAI’ın Araştırma Başkan Yardımcısı’ymış.
Bir yıl içinde Claude’ın ilk versiyonunu tamamlamalarına rağmen, kullanıma sunmamışlar. Daha fazla dahili güvenlik testi yapmak istemişler. İkinci yıllarında yatırımcılar ve diğer AI şirketleri Anthropic’e yatırım yapmaya başlamış. 2024’te Open AI’dan Anthropic’e yeni katılımlar olmuş.
Tahmin edilebileceği gibi, Sam Altman ve Amodei kardeşler, en hafif tabiriyle, birbirlerinden pek hoşlanmıyorlar. Altman, Amodei kardeşler tarafından büyük olasılıkla “yapay zeka ideallerine ihanet eden” bir kişi olarak görülüyor. Adından da anlaşılabileceği gibi OpenAI zamanında bir vakıf gibi kurulmuş, açık kaynak kodlu yazılımlarla çalışmayı vaat etmiş bir şirket. Zamanla bu taahhüdü geride bırakmış, kâr amacını ön plana almış ve Trump hükümetine biat ederek sınırsız biçimde hizmet sunmaya yönelmiş. Altman Anthropic’i ölümüne rakip olarak görüyor olmalı. Anthropic, hem şirketinden eleman “çalmış” hem de başta Open AI olmak üzere başlıca YZ şirketlerini dolaylı olarak suçlayan bir söylemle ortaya çıkmıştı. Ayrıca, Anthropic çok hızlı büyüyen korkulu bir rakip.
NYT’ın geçen çarşamba yayınladığı bir video parçası bu düşmanlığı açıkça ortaya koyuyordu. Yeni Delhi’de, geçen hafta toplanan YZ Zirvesi’nin açılışında, Hindistan Başbakanı Narendra Modi, zirveye katılan YZ şirketlerinin liderlerini sahneye davet etmiş ve sıraya dizilen liderlerin ellerini havaya kaldırarak el ele tutuşmalarını istemişti. Sahnede yan yana düşen Sam Altman ile Dario Amodei ellerini havaya kaldırdıklarında birbirlerinin elini tutmak yerine yumruklarını sıkmayı tercih etmişlerdi. (Bu ilginç anı buradan izleyebilirsiniz.)
Anthropic’in YZ robotu gizli sistemlerde kullanılıyor
ABD Savaş Bakanlığı, görüntüleri ve diğer istihbarat verilerini analiz etmek ve araştırma yapmak için 200 milyon dolarlık bir yapay zeka pilot programının parçası olarak bir yıldan fazla bir süredir Anthropic’in teknolojisini kullanıyordu. Google, OpenAI ve (Elon Musk’ın) xAI şirketi de bu programın bir parçasıydı. Ancak, NYT’ın aktardığına göre, teknolojiye hakim bakanlık yetkilileri, Anthropic’in YZ robotu Claude’un, federal hükümetle çalışan Palantir’in (istihbarat ve savunma birimlerinin kullandığı karmaşık veri analizi platformlarını üreten şirket) teknolojisiyle entegre olabilmesi nedeniyle, kurum tarafından en yaygın ve gizli sistemlerde kullanılan tek yapay zeka robotu olduğunu söylüyordu. Aynı programda yer alan diğer üç şirketin YZ robotları gizli olmayan sistemlerde kullanılıyordu
Le Monde’un aktardığına göre, Anthropic ile Pentagon arasındaki gerginlikler ilk olarak Eylül 2025’te ortaya çıkmıştı. Savaş Bakanı Pete Hegseth, 9 Eylül’de yayınlanan bakanlık içi bir YZ genelgesinde, “İdealist ütopizmden kurtulun, sert gerçekçiliğe geçin” uyarısında bulunmuştu. Hegseth, bu genelgede, orduyu “yasal askeri uygulamaları sınırlayabilecek kullanım politikası kısıtlamalarından muaf” YZ modellerini kullanmaya teşvik ediyordu.
Söz konusu genelgeden sonra, pilot programda çalışan şirketlerle Pentagon arasında “sözleşme revizyonları”na girişilmiş ancak, gizli sistemlerde kullanılan Anthropic’in sözleşme tartışmaları bugüne kadar gelmişti.
Claude’un, Palantir’in sistemleriyle entegre biçimde, Venezuela Başkanı Maduro’nun 3 Ocak’ta sarayından kaçırılması operasyonunda kullanılması, Anthropic’i alarma geçirmişti. ABD’nin önde gelen bağımsız haber sitelerinden Axios’un geçen hafta sonu yayınlanan haberine göre, Savunma Bakanlığı’ndan üst düzey bir yetkiliye göre, Anthropic’in bir yöneticisi Palantir’in bir yöneticisine ulaşarak Claude’un baskında kullanılıp kullanılmadığını sormuştu. Bunun basit bir soru olmadığını belirten yetkili, “baskında ateş açıldığı ve insanlar vurulduğu için, yazılımlarının kullanılmasını onaylamadıklarını ima etmişler,” diyordu. Anthropic sözcüsü ise şirketin bu konuyu, ne Savaş Bakanlığı ile, ne de “tamamen teknik konularla ilgili rutin görüşmelerin dışında” herhangi bir endüstri ortağıyla görüşmediğini açıklamıştı.
Ağır baskı ve tehdit altında
Anthropic’in bu sakınmalı tutumu boşuna değildi. Çünkü, şirket “koşulsuz teslim olması” için ağır bir saldırı altındaydı. Adını vermeyen bakanlık yetkilileri, Trump yanlısı “uzmanlar”, sosyal medya trolleri, şirketi ve CEO’sunu ideolojik olmakla, demokratları desteklemekle, eski demokrat başkan Biden’ın belirli sınırlamalar getirmeye çalıştığı YZ gündemini sürdürmekle, en kötüsü ABD’nin ve ABD’li askerlerin güvenliğini tehdit etmekle suçluyordu. Dario Amodei geçmişte ne söylemişse ortalığa saçılmıştı. Bir Pentagon yetkilisine göre bir zamanlar Trump için “Feodal Savaş Beyi” dahi demişti.
Pentagon sözcüsü Sean Parnell, bakanlığın Anthropic ile olan ilişkisinin “gözden geçirildiğini” söylüyordu. Parnell, “Ülkemiz, ortaklarımızın, her türlü mücadelede savaşçılarımızın galip gelmelerine yardımcı olmaya istekli olmalarını ister,” diyordu. “Sonuçta, bu bizim askerlerimizin ve Amerikan halkının güvenliği ile ilgilidir.” Bakanlık Anthropic’e alternatif oluşturmak üzere de harekete geçmiş ve “bir anlaşma” da sağlamıştı. Mahiyeti ve tarafı açıklanmayan anlaşmanın OpenAI ile yapıldığı sanılıyordu, çünkü 9 Şubat’ta OpenAI, bir blog yazısında Pentagon ile olan işbirliğini genişlettiğini duyurmuştu. OpenAI, bloğunda, “ABD ve diğer demokratik ülkeler için, uygun güvenlik önlemleri alındığında yapay zekanın insanları korumaya, düşmanları caydırmaya ve gelecekteki çatışmaları önlemeye nasıl yardımcı olabileceğini anlamak önemlidir,” diyordu.
Ancak Trump yönetiminin alttan alta, yenilip geri çekilmeyi kendine yediremediği, meseleyi bir kültür savaşı olarak algıladığı ve Athropic’e haddini bildirmeyi istediği anlaşılıyordu. Pentagon yetkilileri, Anthropic’in bu kısıtlamalarda diretmesi durumunda şirketi “tedarik zinciri riski” (supply chain risk) olarak ilan etme niyetinde olduklarını sızdırmıştı. Düşman devletlere hizmet ettiği düşünülen şirketleri kapsayan bu kategori, Anthropic’in sadece orduyla değil, ABD hükümetiyle iş yapan diğer şirketlerle de iş ilişkilerini bitirecek nitelikteydi.
Tabii, bütün bu açıklamalara rağmen, gerçekte Savaş Bakanlığı’nın, Claude’un yerine konacak bir alternatif bulamamış olma ihtimalini de göz ardı etmemek lazım. Yani Bakanlık elini mahkum hissediyor ve bu yüzden daha fazla saldırganlaşıyor olabilir.
Nitekim, konuya yakın kaynaklara göre müzakereler sürüyordu. Anthropic ise, yapay zekasını ABD’nin ulusal güvenliğini desteklemek için kullanmaya kararlı olduğunu ve “bu çalışmaları nasıl sürdürecekleri ve bu karmaşık sorunları nasıl çözecekleri konusunda Savaş Bakanlığı ile iyi niyetle verimli görüşmeler yaptıklarını” söylüyordu.
Bu koşullarda kimse Anthropic yöneticilerinin yerinde olmak istemez
Amodei kardeşler çok yönlü bir baskı altındalar. Yukarıda sözünü ettiğimiz baskıların dışında bir de iç baskı ile yüz yüzeler. Bu iç baskının unsurları çalışanlar ve şirketin yatırımcıları… Anthropic’deki mühendisler ürünlerinin Savaş Bakanlığı tarafından kullanılmasından hoşnut değiller. Ancak, hızlı gelişmenin bir kısmını da bakanlığın fonlarına borçlu oldukları aşikar.
Yatırımcı cephesinde ise ikili bir durum var. Birincisi, Anthropic’in azınlık ortakları arasında Amazon, Google, Microsoft ve Nvidia gibi teknoloji devleri de var. Bu ortaklıklar bu sektörde görülen karmaşık fon yaratma tekniklerinin ürünü olsalar da, sonuçta bir hisse sahipliği anlamına geliyor. Bu hisse sahipleri, sessiz ortaklar mı olacaklar yoksa Anthropic’i belirli bir yöne zorlayacaklar mı, zaman gösterecek.
Buna karşılık, Anthropic’in bu yılın Ocak ayı başında 350 milyar dolar olan piyasa değeri, Şubat ortası itibariyle 380 milyar dolara ulaşmış durumda. Şirket piyasanın bu olumlayıcı tutumuna güveniyor biraz da. Yani yatırımcılar, şirketin Savaş Bakanlığı ile çatışmasına yol açan etik değerlerini bir “risk” olarak değerlendirmiyorlar, aksine destekliyorlar.
Öykü burada bitmiyor. Nasıl biteceğine ilişkin baskın bir işaret de yok. Yukarıdakilere bakarak, siz de benim gibi iyimserlik ile kötümserlik arasında gidip geliyorsanız, gelin Almanların yaptığı gibi baş parmağımızı tutalım ya da İngilizlerin yaptığı gibi parmaklarımızı çaprazlayalım, Anthropic’e (ve kendimize) şans dileyelim. Onların da bizim de buna ihtiyacımız var.
