Akademik çalışmaların pek çoğuna göre avukatlık, bütünüyle yapay zekâ tarafından ikame edilebilecek meslekler arasında yer almıyor. Bunun nedeni ise, yine genel kanının aksine, avukatlığın çok katmanlı bir düşünme yapısı gerektirmesi.
ChatGPT ve benzeri yapay zekâ uygulamaları düzgün bir hukuki dil ile yazılmış, son derece başarılı görünen bir dilekçe taslağı üretebilir. Hatta çoğu zaman bu metin, bir avukatın kaleminden çıkmış gibi de görünebilir. Ama hukuki doğruluk ile dilsel akıcılık aynı şey değil. Adalet Bakanı Akın Gürlek’in, vatandaşın avukat olmadan dava dilekçesi hazırlayabileceği yapay zekâ destekli bir platform kurmayı düşündükleri sözleri tartışmaya yol açtı. Hatırlanacağı üzere, Edirne’de üniversite öğrencileriyle bir araya gelen Gürlek, “Vatandaş girdiği zaman; ‘benim problemim kira davası, işte nafaka davası, alacak davası’ diye yazdığı zaman, hemen kendisine örnek bir şablon çıkacak. Yani avukat olmadan bir dava dilekçesi çıkacak” demiş, sonrasında ise “elbette ki yapay zekâ uygulamaları avukatlık müessesesine alternatif değildir” açıklamasını yapmıştı.
Adalet Bakanı’nın ilk açıklaması sonrasında 78 baro yapay zekâ destekli hukukî süreçlerin savunma hakkını zayıflatmaması gerektiğini vurgulayan ortak bir açıklama yaptı. Baroların bu açıklamasını “avukatlar mesleklerini korumak için teknolojiye karşı çıkıyor” şeklinde yorumlamak son derece hatalı olur. Barolar tarafından altı çizilmek istenilen nokta, hukuki yardımın yapay zekâ çıktısına indirgenmesinin son derece hatalı olacağı. Bu hususun altını çizmekte ise son derece haklılar, zira yalnızca ülkemizde değil dünyada da görülen bu eğilim, hem vatandaşlara hem de hukuk sistemine faydadan çok zarar veriyor.
Hepimiz sosyal medyada “ChatGPT’nin yazdığı dilekçe ile davamı kazandım, bir avukata gitseydim hem yüklü bir ödeme yapacak, hem de yüksek ihtimalle yanlış bilgi alacaktım” minvalinde paylaşımlar görmüşüzdür. Öyle ki, bu paylaşımlar LinkedIn gibi profesyonel amaçla kullanılan sosyal medya platformlarında dahi yaygın. LinkedIn’de yapılan paylaşımlardan gözlemlediğim, paylaşımları yapan kişilerden bazıları eğitim düzeyi yüksek ve çalıştıkları alanda üst düzey olarak nitelendirilebilecek görevlerde yer alan kişiler.
Tam da bu durum çok önemli bir soruna işaret ediyor. ChatGPT ve benzeri yapay zekâ uygulamaları düzgün bir hukuki dil ile yazılmış, son derece başarılı görünen bir dilekçe taslağı üretebilir. Hatta çoğu zaman bu metin, bir avukatın kaleminden çıkmış gibi de görünebilir. Ama hukuki doğruluk ile dilsel akıcılık aynı şey değil. Bir metnin düzgün görünmesi, doğru davanın açıldığı, doğru hukuki sebebe dayanıldığı veya usül kurallarının gözetildiği anlamına gelmez. Bazı durumlarda aslında dava açılmasına gerek dahi olmayabilir.
ABD’de Mata v. Avianca davasında avukatların, ChatGPT’nin ürettiği sahte mahkeme kararlarını dilekçeye koydukları için yaptırıma uğradığını hepimiz duymuşuzdur. Bu tarz olaylar münferit değil. Basında daha çok ABD örnekleri yer alsa da, İtalya başta olmak üzere Avrupa ülkelerinde de benzer kararlar var, ve sayıları artış gösterme eğiliminde.
Temel sorun otomasyona duyulan aşırı güven. Literatürde automation bias (otomasyon yanlılığı) olarak adlandırılan bu risk, insanların otomatik sistemler tarafından üretilen çıktıları yeteri kadar sorgulamadan doğru kabul etme eğilimini ifade ediyor. Özellikle büyük dil modelleri (large language model) ile işleyen sistemlere, insana özgü özellikler taşıyor gibi göründükleri için daha çok güvenme eğiliminde olduğumuzu araştırmalar ortaya koyuyor. Oysa ki bu modeller yalnızca metin üretme, özetleme, sınıflandırma gibi alanlarda başarılı. Hazırladıkları metinlerin doğruluğunun dikkatlice kontrol edilmesi gerekiyor.
Kişilerin otomasyona başvurma sebepleri farklı olabilir. Bir savcı işyükünün fazla, zamanının az olması nedeniyle bu sistemlere yönelebilirken, vatandaşlar “avukat ile uğraşmamak” ya da daha az maliyet” gibi nedenlerle yapay zekâ sistemlerine başvurabilir. Fakat, otomasyona aşırı güven duyulmasının önlenmesi elzem. Bir savcı da yapay zekânın çıktısını kelime kelime kontrol etmeli, bir vatandaş da hazırlanan metnin hata içerebileceğini, ya da sistemin sunduğu çözüm önerisinin eksik olabileceğini bilmeli.
Tam da bu noktada, yapay zekâya ilişkin kullanılan dil çok önemli. Ankara Barosunun 25 Nisan tarihli açıklamasında altını çizdiği gibi, avukatın yargı sisteminin dışında, gereksiz ya da ikame edilebilir bir unsur olarak gösterilmemesi elzem. Benzer şekilde, yapay zekâ sistemlerinin avukatın üstlenebileceği bazı görevleri üstlenebileceğinin herhangi bir şekilde imâ edilmesi ve bu yöndeki algının güçlendirilmesi otomasyona duyulan aşırı güveni artırıp son derece sakıncalı sonuçlara yol açabilecek niteliktedir.
Aksi yönde haberler sıklıkla yapılsa da, alanda yapılmış akademik çalışmaların pek çoğuna göre avukatlık, bütünüyle yapay zekâ tarafından ikame edilebilecek meslekler arasında yer almıyor. Bunun nedeni ise, yine genel kanının aksine, avukatlığın çok katmanlı bir düşünme yapısı gerektirmesi. Avukatların yaptığı literatür taraması, karar taraması ya da ilk taslak hazırlığı gibi birtakım işler elbette otomasyona tabi olabilir. Fakat bu, avukatlık mesleğinin, en azından bu aşamada, yapay zekâ sistemleri tarafından icra edilebileceği anlamına gelmiyor.
Zira hukuk hizmeti, yalnızca metin üretiminden ibaret değil, arkasında ciddi bir mesleki emek, birikim ve sorumluluk var. Avukatın emeği, dilekçenin son halinde görünen cümlelerden çok daha fazlası: dinlemek, anlamak, hukuki riski tartmak, strateji kurmak, kimi zaman müvekkile en doğru yolun dava açmamak olduğunu söylemek ve bütün bunların sorumluluğunu üstlenmek.
Şüphesiz ki yapay zekâ hizmetinden faydalanan avukatların da bu sorumluluğun bilincinde olmaları gerekiyor. Bu sistemler aracılığıyla dilekçe yazılabilir, araştırma yapılabilir, metin taslağı hazırlanabilir. Fakat günün sonunda o dilekçenin, o hukuki tercihin ve o dosyada izlenen stratejinin sorumluluğu yapay zekâya değil, avukata aittir.
1 Mayıs vesilesiyle tekrar hatırlamak gerekir; Teknoloji emeği desteklediği ölçüde değerlidir.
[İstanbul Barosu üyesi meslektaşımız Av. Hatice Kocaefe’nin Bursa’nın Gürsu ilçesinde uğradığı silahlı saldırı sonucunda yaşamını yitirdiğini büyük bir üzüntüyle öğrendik. Türkiye Barolar Birliği’nin açıklamasında da vurgulandığı üzere, avukatların hedef haline getirilmesi yalnızca bir meslek grubuna yönelen şiddet değil; savunmaya, hak arama özgürlüğüne ve hukuk devletine yönelen bir tehdittir. Parlak eğitimi ve olağanüstü akademik başarısıyla, yalnızca avukatlık mesleğinde değil, akademik alanda da ülkemize önemli katkılar sunabileceği açık olan genç meslektaşım Av. Hatice Kocaefe’ye Allah’tan rahmet; ailesine, yakınlarına ve tüm hukuk camiasına başsağlığı diliyorum.]
1 Mayıs 2026 - Yapay zekâ dilekçe ‘yazabilir’, ama ‘hazırlayamaz’
24 Nisan 2026 - Vergi affı yok deniyor, ama beklenti bitmiyor
17 Nisan 2026 - Bir süre meselesi mi, bir sistem sorunu mu?
10 Nisan 2026 - E-tebligatta yeni denge: Hız mı, hukuki güvenlik mi?
3 Nisan 2026 - Vergi idaresi bu kez gelire değil, harcamaya mı bakıyor?