Geçen hafta ChatGPT’yle gündem konuşmalarına başlamıştım. İlk buluşmada konuşmacımız ücretsiz versiyon ChatGPT-3.5’ti. Bu kez daha akıllı olduğu belirtilen, ücretli versiyon ChatGPT-4 var karşımda. Savaş gündemiyle kavrulurken, başka konuya girmek mümkün olmuyor. Konumuz yine İsrail-Hamas savaşı.
Ehli Arap Hastanesi’nde yaşanan katliam, tüm dünyayı ayağa kaldırdı, gözler ve tepkiler İsrail’e yöneldi. İsrail’de devlet kademesine yakın kaynaklar önce bombardımanı kendilerinin gerçekleştirdiğine dair Tweet’ler attı ancak kısa süre sonra bu paylaşımlar silinerek, İsrail tarafından hastanedeki katliama sebep olarak İslami Cihad’ın kısa düşen bir roket atışı gösterildi. Buna kanıt olarak da uydu görüntüleri ve ses kayıtları paylaşıldı İsrail tarafından. ABD Başkanı Joe Biden da İsrail ziyaretinde, “Saldırıyı karşı taraf yapmış gibi görünüyor” ifadesini kullandı. Gündemimiz şu: Bir devlet, kendisini savunurken, kendi kaynaklarıyla hazırladığı veriler sunduğunda, buna ne kadar güvenmeliyiz? Bu görüntüleri yapay zekâ üretebilir mi? Tam dökümünü bu adresten okuyabileceğiniz sohbetimize başlayalım.
Burak: Yapay zekânın bana sunabileceği imkânların sınırını öğrenmek istiyorum. Senin bilgin 2022 yılına kadar. O zamana kadarki bilgilerinle buna yanıt ver lütfen: Ben mevcut teknolojik imkânlarla, yapay bir şekilde, gerçeğinden ayırt edilemeyecek kadar gerçek ses kaydı oluşturabilir miyim?
ChatGPT-4: 2022 yılına kadar olan bilgilerime dayanarak cevap vereyim. Yapay zekâ, özellikle derin öğrenme teknolojilerinin gelişmesiyle birlikte, ses üretme konusunda oldukça ilerleme kaydetti. Bu alanda yapılan çalışmalar, ‘ses sentezi’ veya ‘ses üretme’ olarak adlandırılıyor. Son yıllarda tanınmış örneklerden biri OpenAI’nin ‘WaveNet’ modeli. Bu insan sesine oldukça yakın sesler üretebiliyor. Yine de gerçek bir insan sesini tam anlamıyla taklit etmek, özellikle belirli bir kişinin sesini taklit etmek, teknik ve etik zorlukları beraberinde getirir.
Teknik zorluklar
Veri: İyi bir ses sentezi modeli eğitmek için büyük miktarda ses verisine ihtiyaç var.
Kalite: Model, bazen insan kulağını aldatan bir ses üretse de hâlâ mükemmel olmayabilir. Sesin doğallığını sağlamak için ilave iyileştirme adımları gerekebilir.
Kişiselleştirme: Belirli bir kişinin sesini taklit etmek için o kişiye ait yeterince ses verisi gerekir.
Etik zorluklar
İzinsiz Kullanım: Bir kişinin sesini izinsiz olarak kullanmak, hem etik olarak yanıltıcı hem de hukuki sonuçlara yol açabilir.
Yanıltma: Sahte ses kayıtları, insanları yanıltmak için kullanılabilir. Bu toplum için büyük bir güvensizlik yaratır.
Gerçeğinden ayırt edilemeyecek kadar gerçek ses kaydı oluşturmak mümkün ama etik ve hukuki sorumlulukları var.
Peki aynı şekilde, yanıltıcı, manipülatif, gerçeğinden ayırt edilemeyecek kadar gerçek uydu görüntüleri oluşturabilir miyim? Bu görüntüler yerden yaklaşık 1000 metre yükseklikten çekilmiş görüntüler olacak.
2022 yılına kadar olan bilgilerime göre, yapay zekâ, özellikle derin öğrenmeyle birlikte, görsel veri üretme konusunda önemli ilerlemeler kaydetti. Özellikle Generative Adversarial Networks (GAN) adlı yapılar, oldukça gerçekçi görsel içerik üretmede kullanılıyor. GAN’lar, birbiriyle yarışan iki ağın (üretici ve ayırt edici) eşzamanlı olarak eğitilmesiyle çalışır. Üretici, gerçek verilere olabildiğince benzeyen sahte veri üretmeye çalışırken, ayırt edici, üretilen verinin gerçek mi yoksa sahte mi olduğunu belirlemeye çalışır. Bu teknoloji, yüksek çözünürlüklü ve detaylı görseller üretmek için kullanılabilir. Ancak bu görüntülerin ‘uydu’ görüntüsü kalitesine ulaşması ve belirli bir yükseklikten çekilmiş gibi görünmesi için bazı özelleştirmeler gerekebilir. Örneğin, gerçek uydu görüntülerinin özelliklerini, renk dağılımlarını, gölgelerini ve diğer detaylarını modellemek için geniş bir eğitim verisi setine ihtiyaç duyulacaktır. Ancak bu da etik ve hukuki sorunlar yaratabilir:
Etik Sorunlar: Manipülatif görüntülerin, insanları yanıltmak, aldatmak veya kötü amaçlarla kullanmak için oluşturulması etik olarak kabul edilemez.
Hukuki Sorunlar: Bazı ülkelerde, özellikle halkı yanıltacak şekilde manipülatif içeriklerin oluşturulması ve dağıtılması yasa dışı olabilir.
Belirli bir yükseklikten çekilmiş gibi görünen gerçekçi görüntüler oluşturmak mümkün. Oluşturulması ve dağıtılması konusunda etik ve hukuki sorumlulukları dikkate almalısınız.
O zaman şunu anlıyorum söylediklerinden: Eğer hukuka aykırı hareket etmeyi göze alırsam ve etik değerleri bir kenara bırakırsam, herkesi kandırabilecek, gerçekleri lehime değiştirebilecek şekilde ses ve görüntü elde etmem mümkün…
Evet, derin öğrenme tabanlı yöntemlerle gerçekçi ses ve görüntüler üretmek mümkün. Bununla birlikte, bu seslerin ve görüntülerin ‘herkesi kandırabilecek’ kadar mükemmel olup olmadığı konusunda bazı kısıtlamalar var. Ancak teknolojinin ilerlemesiyle birlikte bu tür sahte içeriklerin kalitesi de artıyor. Şu noktaları unutmamak önemli:
Tespit Yöntemleri: Sahte ses ve görüntü içeriklerini üretme teknolojisi ilerledikçe, bu tür içerikleri tespit etmek için de yöntemler geliştiriliyor. Bir içeriğin sahte olup olmadığını tespit edebilen algoritma ve teknolojiler var.
Hukuki ve Etik Sonuçlar: Sahte içerikleri oluşturmak ve dağıtmak ciddi hukuki ve etik sonuçlar doğurabilir; ciddi yaptırımlarla sonuçlanabilir.
Toplumsal Güven: Sahte içeriklerin yaygınlaşması, toplumsal güvensizliği artırabilir. Bu topluluklar ve bireyler arasında güvensizlik yaratarak sosyal dinamikleri olumsuz etkileyebilir.
Teknolojiyle birçok şey mümkün hale geliyor; ancak bu imkanların doğru ve etik bir şekilde kullanılması önemli. Teknolojinin yanlış kullanımı, bireysel ve toplumsal düzeyde ciddi sorunlara yol açabilir.
Bu söylediklerin, farz edelim bir savaş ortamında, savaşın tarafları ve savaşı dışarıdan takip edenlere ne gibi tehlikeler yaşatabilir?
Yapay zekâ tarafından üretilen sahte ses ve görüntülerin savaş gibi hassas ve kritik bir ortamda kullanılması, ciddi tehlikelere ve sonuçlara yol açabilir.
Dezenformasyon: Sahte ses ve görüntü içerikleri, yanıltıcı bilgilerin yayılmasına sebep olabilir. Bu, bir tarafın stratejilerini yanıltabilir veya askeri harekatları tehlikeye atabilir.
Propaganda: Sahte içerikler, bir tarafın propagandasını güçlendirmek için kullanılabilir. Örneğin, bir liderin sahte bir konuşması veya bir askeri başarısızlığa uğramış gibi gösterilen sahte görüntüler bu amaçla kullanılabilir.
Diplomatik Krizler: Liderlerin ya da üst düzey yetkililerin sahte konuşmaları veya videoları, diplomatik ilişkilerde gerilimlere veya krizlere yol açabilir.
Toplumsal Panik ve Korku: Sahte içerikler, halk arasında panik, korku veya öfkeye neden olabilir. Bu da sivil karışıklıklara, protestolara veya isyanlara yol açabilir.
Güvensizlik: Sahte içeriklerin yaygınlaşması, medyanın ve resmi açıklamaların güvenilirliğini zedeler. Bu, halkın ve askeri personelin güvenini sarsabilir.
Karşı Önlemler: Deepfake teknolojisinin ilerlemesi, bu tür içerikleri tespit edebilen karşı önlemlerin geliştirilmesini zorunlu kılar. Bu, savunma ve istihbarat kaynaklarının bu tür tehditlere odaklanmasına neden olabilir.
Dış Müdahale: Üçüncü taraf ülkeler veya gruplar, sahte içerikleri kullanarak bir savaşı etkileme veya yönlendirme amacıyla müdahalede bulunabilir.
Savaş Suçları ve Hukuki Sorunlar: Sahte içerikler, savaş suçlarına dair yanıltıcı ‘kanıtlar’ olarak sunulabilir, bu da uluslararası hukuk ve adalet mekanizmalarının işleyişini etkileyebilir.
Teknolojinin bu denli etkili ve potansiyel olarak zararlı olabilecek bir silah haline gelmesi, uluslararası topluluğun bu konuda etik standartlar ve düzenlemeler geliştirmesini zorunlu kılar. Sahte içeriklerin potansiyel tehlikeleri, savunma ve istihbarat organizasyonlarını bu tür tehditlere karşı hazırlıklı olmaya itmektedir.
Bu dezenformasyonu gerçekleştiren, savaş suçu işleyen ve bunları yaparken hukuk ya da etik konusunda herhangi bir çekincesi olmayan bir devlete karşı ne yapılabilir?
Bir devletin bu tür dezenformasyon ve savaş suçu eylemlerini gerçekleştirdiği durumlarda, uluslararası topluluğun bu tür eylemlere karşı tepki göstermesi ve çeşitli önlemler alması beklenir.
Tanımlama ve Doğrulama: Öncelikle, dezenformasyonun veya savaş suçunun gerçekten gerçekleştiğini belirlemek için bağımsız ve güvenilir kaynaklarla doğrulama yapılmalıdır.
Bilgilendirme Kampanyaları: Yalan haberlere ve dezenformasyona karşı bilgilendirme kampanyaları düzenlenerek, halkın ve diğer ülkelerin gerçekler konusunda bilgilendirilmesi sağlanmalıdır.
Diplomatik Baskı: Uluslararası topluluk, hukuka aykırı hareket eden devlete karşı diplomatik baskı kurarak, bu tür eylemlerin sonlandırılmasını talep edebilir.
Ekonomik Yaptırımlar: Uluslararası topluluk, dezenformasyon ve savaş suçu eylemlerini gerçekleştiren devlete ekonomik yaptırımlar uygulayabilir.
Uluslararası Adalet Mekanizmaları: Savaş suçları veya insan hakları ihlalleri durumunda, Uluslararası Ceza Mahkemesi gibi uluslararası adalet mekanizmaları devreye girebilir.
Medyada Farkındalık Yaratma: Uluslararası medya organları, bu tür eylemlerin farkındalığını artırmak için hikayeleri ve analizleri yayınlayarak kamusal tepki oluşturabilir.
Teknolojik Önlemler: Dezenformasyonun yayılmasını engellemek için teknolojik önlemler alınabilir. Örneğin, deepfake içeriklerini tespit eden algoritmaların geliştirilmesi ve yaygınlaştırılması.
Bilgi Paylaşımı ve İşbirliği: Ülkeler, dezenformasyon ve savaş suçu tehditlerine karşı bilgi paylaşımında bulunarak ve ortaklaşa stratejiler geliştirerek işbirliği yapabilir.
Askeri İşbirliği: Son çare olarak, uluslararası topluluk, askeri müdahale veya barışı koruma görevleri aracılığıyla dezenformasyon ve savaş suçu eylemlerini engelleme veya bunlara karşı tepki gösterme yoluna gidebilir.
Bu tür eylemlere karşı alınabilecek önlemler, duruma, uluslararası ilişkilere ve dezenformasyonun veya savaş suçunun boyutlarına bağlı olarak değişkenlik gösterebilir. Ancak uluslararası topluluğun birlikte hareket ederek bu tür tehditlere karşı etkili bir tepki göstermesi esastır.
O zaman soracağım şu soru kalıyor sana: Bir devlet, kendisine yöneltilen suçlamaya yönelik, kendi savunmasını, kendi kaynaklarıyla oluşturduğu ses kayıtları ve video görüntülerine dayandırıyor. Yapay Zekâ’nın bu denli geliştiği bir dönemde, suçlanan tarafın kendisini savunmak adına paylaştığı bu ses ve görüntülere nasıl yaklaşmalıyım?
Yapay Zekâ ve deepfake teknolojisinin geldiği noktada, özellikle bir devletin savunma olarak sunduğu ses kayıtları ve video görüntüleri gibi kritik materyallere yaklaşırken dikkatli ve şüpheci olmak önemlidir.
Kaynağın Güvenilirliği: Materyalin geldiği kaynağın güvenilirliği sorgulanmalı. Bir devletin resmi organları genellikle güvenilir kabul edilir, ancak bu, materyalin otomatik olarak gerçek olduğu anlamına gelmez.
Bağımsız Doğrulama: Özellikle tartışmalı veya şüpheli durumlarda, materyalin doğruluğunu bağımsız bir üçüncü tarafın doğrulaması gerekir. Bu, özellikle teknoloji ve medya forensiği uzmanları tarafından yapılabilir.
Teknolojik İnceleme: Deepfake’lerin belirlenmesi için geliştirilen algoritma ve araçlar kullanılarak materyalin gerçek olup olmadığı kontrol edilmeli.
Bağlam: Sunulan ses veya video materyalinin bağlamı dikkate alınmalıdır. Örneğin, belirli bir olayın öncesinde veya sonrasında neler olduğunu bilmek, materyalin doğruluğunu ve anlamlılığını değerlendirmeye yardımcı olabilir.
Diğer Deliller: Bir ses kaydı veya video, bir olayın gerçekleştiğine dair kesin bir kanıt olarak kabul edilmemeli. Diğer delillerle (örneğin, tanık ifadeleri, fiziksel kanıtlar) birlikte değerlendirilmeli.
Motive Edici Faktörler: Materyali sunan tarafın motive edici faktörlerini düşünmek de önemli. Örneğin, bir devlet, uluslararası arenada itibarını korumak veya başka bir ülkeye karşı avantaj kazanmak için yanıltıcı bilgiler sunmuş olabilir.
Uzman Görüşleri: Konu hakkında uzman olan kişilerin veya kuruluşların görüşlerini almak, materyalin değerlendirilmesine yardımcı olabilir.
Son olarak, teknolojik gelişmelerin ve yapay zekanın geldiği bu noktada, her türlü bilgiye şüpheyle yaklaşmak ve kapsamlı bir değerlendirme yapmak her zamankinden daha önemli hale gelmiştir.
Materyali sunan tarafın motive edici faktörlerini düşünmek de önemli. Örneğin bir devlet, uluslararası arenada itibarını korumak veya başka bir ülkeye karşı avantaj kazanmak için yanıltıcı bilgiler sunmuş olabilir.