Bir önceki yazımızda ele aldığımız dezenformasyonun en somut ve belki de en tehlikeli biçimlerinden biri “derin sahtecilik”(deepfakes) olarak da bilinen uygulamalardır.
Dijital medya kanallarında, dezenformasyon ve yanıltıcı içeriklerin önemli bir boyutunu fotoğraflar üzerinde yapılan dijital görüntü veya ses manipülasyonları oluşturur. Çünkü görüntüler ve fotoğraflar zihinde daha kalıcı ve güçlü bir etki yaratır. Bu güç, dijital görüntü manipülasyonları aracılığı ile dezenformasyon aracına dönüşebilir. Görüntü ve ses manipülasyonları, artık günümüzde kitleleri yanıltarak istenilen şekilde yönlendirmek, belirli bir bakış açısını dayatmak ve bir olayı çarpıtmak gibi farklı amaçlarla ve yapay zekâ teknolojileri ile kolay bir şekilde yapılabiliyor. (1)
Derin sahtecilik (deepfakes)
Derin sahtecilik olarak da bilinen sentetik medya alanındaki gelişmeler yüzünden medyadaki haber ve bilginin bir bilgisayar tarafından mı üretildiğini yoksa gerçekten yaşanmış bir olaya mı dayandığını bilmek giderek zorlaşıyor. Daha da önemlisi, sentetik medya (kısmen ya da tamamen bilgisayarlar tarafından üretilen medya) yapay zekâ araçlarının yaygınlaşmasıyla önem kazandı.
Bu derin sahtecilik gerçek insanların sesini ve görünüşünü taklit etmek için kullanılabiliyor. Derin sahteci medya etkileyici derecede gerçekçi ve fazla beceri ya da kaynak gerektirmiyor. Ayrıca derin sahtecilik ses teknolojisi, tespit edilmesini zorlaştıran bir gelişmişlik düzeyinde. Bu, birbirini izleyen teknolojilerin yüksek kaliteli içerik üretimini neredeyse herkes için erişilebilir hale getirdiği daha geniş çaplı dijital devrimin doruk noktası. (2)
Derin sahteciliğin, bir adayı güçlendirmenin ya da zayıflatmanın/itibarsızlaştırmanın, bir siyasal partinin altını oymaya yönelik bariz çabanın yanı sıra, ülkedeki farklı ulusal kimlikleri ve inanç gruplarını günah keçisi ilan etmeye ve sorumlu gazeteciliği şeytanlaştırmaya ve kadınları ve kız çocuklarını taciz edip korkutmaya dönük videolarla, onları seçime katılmaktan vazgeçirmeye dönük çok sayıda kullanım alanı söz konusu olabiliyor.
Bir örnek vermek gerekirse, Ocak ayı sonlarında, küresel pop ikonu Taylor Swift'in sahte pornografik görüntüleri X’te (eski adıyla Twitter) 47 milyon görüntülenmeye ulaştı. (3)
Bu tür içeriklerin bir bireyin ruh sağlığına verebileceği zararı hayal etmek zor değil. Ancak, derin sahteciliklerin genel ya da yerel seçimler üzerinde ne kadar etkili olduğunu henüz tam olarak bilemesek de, seçim süreçlerinde daha geniş bir ölçekte uygulandığından tüm toplumu tehdit edebilir.
Endonezya, Slovakya, Türkiye
Nitekim Ocak ayında yayımlanan bir makalede genel seçimlerin 14 Şubat’ta yapılacağı Endonezya’da, sosyal medyada büyük hacimli paylaşımlar yapmaları için para ödenen “buzzers” sürüsünün tüm hızıyla çalıştığına vurgu yapılıyordu. Bunların amaçları seçmenleri etkilemekti. Öyle ki dijital gürültünün ortasında, Monash Üniversitesi’nin Jakarta kampüsündeki sosyal bilimci Ika Idris ve meslektaşları, nefret söylemindeki değişikliklerin yanı sıra, bir başkan adayını Çince konuşurken gösteren ve Çin ile yakın bir ittifakı ima eden yapay zekâ tarafından üretilen 'deepfake' video gibi yanlış bilgilerin seçmenler üzerindeki etkisini izlemeye çalışıyorlardı. (4)
Keza Endonezya'daki son seçimlerde merhum Başkan Suharto'yu “dirilten” bir derin sahteci/deepfake video yayınlandı. Bu video görünüşte insanları oy vermeye teşvik etmek amacıyla hazırlanmıştı ancak Suharto'nun liderliğini yaptığı siyasi parti tarafından hazırlandığı için propaganda yapmakla suçlandı.
Derin sahteciliğin daha bariz bir kullanımı siyasi adaylar hakkında yalanlar yaymaktır. Örneğin, Slovakya'nın Eylül 2023'teki parlamento seçimlerinden günler önce yayınlanan yapay zekâ tarafından üretilen sahte ses, İlerici Slovakya Partisi lideri M. Šimečka'yı bir gazeteciyle oylamaya nasıl hile karıştırılacağını tartışmış gibi göstermeye çalıştı. Bu video seçim kampanyasının son günlerinde yayınlandı zira bu dönem dezenformasyon ve manipülasyon saldırıları için en uygun zaman öyle ki buna yanıt verebilmek için çok az zaman kalıyor.(5)
Aslında bu durum Türkiye için de yabancı değil. 14-21 Mayıs 2023 Genel Seçimleri sırasında muhalefetin Cumhurbaşkanı adayı olan K. Kılıçtaroğlu’nu Kandil ile aynı videoda gösteren ve sonrasında bunun kurmaca olduğu Cumhurbaşkanı tarafından dahi kabul edilen bir sahte video (6) bizzat Erdoğan tarafından kullanılmıştı.
Yapay zeka ve dezenformasyon
Yapay zekâ, insan zekâsı süreçlerinin makineler, özellikle de bilgisayar sistemleri tarafından simüle edilmesidir. Yapay zekanın spesifik uygulamaları arasında uzman sistemler, doğal dil işleme, konuşma tanıma ve makine görüşü gibi uygulamalar yer alır. Aslında çoğu zaman, yapay zekâ olarak adlandırılan şey makine öğrenimi gibi teknolojinin sadece bir bileşenidir.
Genel olarak, yapay zekâ sistemleri büyük miktarlarda etiketli eğitim verisi alarak, korelasyonlar ve örüntüler için verileri analiz ederek ve gelecekteki durumlar hakkında tahminler yapmak için bu örüntüleri kullanarak çalışır. Bu şekilde, metin örnekleriyle beslenen bir sohbet robotu insanlarla gerçekçi iletişim kurmayı öğrenebilir veya bir görüntü tanıma aracı milyonlarca örneği inceleyerek görüntülerdeki nesneleri tanımlamayı ve açıklamayı öğrenebilir. Yeni, hızla gelişen üretken yapay zekâ teknikleri gerçekçi metinler, görüntüler, müzik ve diğer medyayı yaratabilir. Özetle, yapay zekâ, yaşama ve çalışma tarzımızı değiştirme potansiyeli açısından önemlidir. (7)
Yapay zekâ: Öğrenen ve zekâsını artıran robot
Yapay zekâ ile sadece önceden programlanmış talimatları yerine getiren değil, aynı zamanda deneyim ve yeni durumlarla, daha fazla yeni program ve talimat öğrenen makineler de kastedilir. Yani yapay zekâ, aslında öğrenen ve zekâsını arttıran robotlar anlamına gelir. Bu, robotların gelişimi artan zekâya sahip daha fazla robot yapabilecekleri noktaya kadar sürebilir. Gerçekten de bazı insanlar yapay zekânın yakında insan zekâsını geçeceğini iddia etmektedirler. (8)
“Otomasyon, önceden programlanmış görevleri çok az veya hiç insan müdahalesi olmadan tamamlayarak insan emeğinin yerini alan her türlü teknoloji” olarak tanımlanabilir. Yapay zekâ ise, bir görevi tamamlamak için mevcut verileri kullanan ve eylemlerini yeni bilgilerin ve programlamanın yorumlarına göre uyarlayabilen bir otomasyon türü olarak ele alınabilir.
Birçok görev için, ChatGPT veya benzer şekilde ayarlanmış bir yapay zekâ ideal bir çalışandır. Kodlamadaki temel ve sözdizimi hatalarını hızlı bir şekilde bulabilir ve bunlar için doğru düzeltmeleri önerebilir. Büyük veri setlerini analiz edebilir. Okunması kolay birçok içerik yazabilir. Çocuklara öğretilebilecek veya okullarda öğretmenlere yardımcı olarak kullanılabilecek temel şablonlar oluşturabilir. Power point slaytları oluşturabilir, hatta nazik e-postalar bile yazabilir. (9)
Yaratıcı (jeneratif) yapay zekâ; İyi mi, kötü mü?
Günümüzde, yaratıcı yapay zekâ (gen AI), genel yapay zekânın ötesinde, inovasyon, büyüme ve üretkenlik alanlarında dönüştürücü etki potansiyeli ile siyasal örgütler ve siyasal partiler için çok önemli fırsatlar sunuyor. Öyle ki güvenilir yazılım kodu, metinler, konuşma metinleri, yüksek doğrulukta görüntüler ve etkileşimli videolar üretebiliyor. (10)
İyiye bir örnek olarak; Varşova'nın 325 kilometre (200 mil) doğusundaki Poznan'da teknoloji araştırmacıları, mühendisler ve çocuk bakıcılarından oluşan bir ekip küçük bir devrim üzerinde çalışıyor. Ortak projeleri olan "Insension", ileri derecede zihinsel ve çoklu engelleri olan çocukların başkalarıyla ve çevreleriyle etkileşime girmelerine ve dünyayla daha bağlantılı hale gelmelerine yardımcı olmak için yapay zekâ destekli yüz tanıma özelliğini kullanıyor. Bu, hızla ilerleyen teknolojinin gücünün bir kanıtıdır. (11)
Diğer taraftan, yaratıcı yapay zekâ ile ilişkili riskler, temel eğitim verilerinde gömülü olan yanlış çıktılar ve önyargılardan, büyük ölçekli yanlış bilgilendirme ve siyaset ve kişisel refah üzerinde kötü niyetli etki potansiyeline kadar uzanıyor. Nörobilimdeki gelişmeler özgür düşünceye yönelik bu tehdidi daha da artırıyor.
Bu bağlamda, kötüye kullanıma bir örnek olarak; Çin’in başkenti Pekin’de, yapay zekâ destekli yüz tanıma, hükümet yetkilileri tarafından vatandaşların günlük hareketlerini izlemek ve tüm nüfusu yakın gözetim altında tutmak için kullanılıyor. Bu aslında aynı teknolojidir ancak sonuç temelde farklıdır. Bu iki örnek, daha geniş kapsamlı yapay zekâ sorununu özetlemektedir: “Temel teknoloji kendi içinde ne iyi ne de kötüdür, her şey onun nasıl kullanıldığına bağlıdır”. (12)
Yapay zekâ ürünü haber yayınlayan internet sitelerinde tamamen yanlış bilgileri öne çıkaran içerikler üretilebiliyor. Bunlardan biri olan CelebritiesDeaths.com, bu yılın Nisan ayında, “Biden öldü. Harris başkanlığa vekâlet ediyor, konuşma saat 09.00’da” başlıklı haber yayınladı. Haberde 80 yaşındaki ABD Başkanı Joe Biden'ın “uykusunda huzur içinde” öldüğü iddia ediliyordu. (13)
Yapay zekâ ve emeğin sıradanlaştırılması
Günümüzde yapay zekâ ile ilgili tartışmalar, esas olarak onun emeği sıradanlaştırması ve işleri işçilerin elinden alıp almamasıyla sınırlı olarak yürütülüyor.
Nitekim yapay zeka, hamburger yapmak, hastalara bakmak, makale yazmak (ChatGPT), karmaşık matematik ve bilgisayar kodlaması yapmak, illüstrasyonlar yapmak, karmaşık yasal belgeleri analiz etmek ve hatta kimin işe alınacağına ve işten çıkarılacağına karar vermek gibi çok çeşitli işlere entegre ediliyor. Yapay zekânın insan çalışanların yerini tamamen almasına ilişkin örnekler de giderek artıyor. (14)
Bu bağlamda, yapay zekâ aracılığıyla sermaye sınıfının işgücü piyasalarını ve ekonomiyi temelden yeniden şekillendirmeye hazırlandığını görmek gerekiyor. Bu durum emekçiler aleyhine gelişeceğinden ekonomideki eşitsizlikler daha da kötüleşebilir.
Nitekim bazı araştırmacıların gerçekleştirdiği bir araştırmanın sonuçlarına göre, yapay zekâ derin sahtecilik ve yanlış bilgilendirme gibi daha geleneksel risklerinin dışında, arta yolsuzluklar, popülizm ve seçkincilik biçiminde demokratik kurumları aşındırarak, demokrasi için de büyük bir tehdit oluşturuyor. Zayıflayan demokrasi ise eşitsizlikleri dizginleme konusundaki gücünü kaybedecektir. Bu durum, demokrasinin aşınması ve eşitsizliğin artması şeklinde kısır bir geri besleme döngüsü yaratabilir ve bu döngü, işçilerin yapay zekâ tarafından büyük ölçekli olarak yerlerinden edilmesi gibi ekonomik bir şokun ardından hızla hızlanabilir. Sonuç, gelir eşitsizliklerinin belirgin bir şekilde arttığı ve sıradan vatandaşların sesinin iyice zayıfladığı bir durum olabilir. (15)
Ancak, yapay zekânın sınıf perspektifinden analizi, onu insan emeğini sıradanlaştırmak ve yerini almak üzere tasarlanmış en son teknoloji türü olarak görürken, onun insan işçileri geçersiz kılıp kılmayacağı, onların işini kolaylaştırıp kolaylaştırmayacağı ya da daha fazla emek sömürüsüne neden olup olmayacağı, özetle sermaye sınıfı ile işçi sınıfı arasındaki sınıf mücadelesine, dolayısıyla da ikili arasındaki güç ilişkisine ya da dengesine bağlı olacaktır. Nitekim güçlü sendikalar ve örgütlü bir işçi sınıfı, artan üretkenliğin meyvelerini emekçiler lehine yeniden bölüştürebilir veya çalışma koşullarını iyileştirebilir.
Propaganda makinası olarak yapay zekâ
Yapay zekânın bir diğer boyutu etkili bir propaganda makinası olarak kullanılabilmesidir. Öyle ki dil bilimci Chomsky’nin rıza ürettiğini düşündüğü propaganda makineleri artık neredeyse yüzde yüz yapay zekâ güdümlü bir konumdalar. Bu işi yapan bir devlet ya da hükümet değil - daha önce hiç görmediğimiz bir kültürel ölçekte yapay zekânın dil kapasitesidir. Marksist gelenekte buna ideoloji denir. Üretim ve kültürün sürekliliği hiç bu kadar gerçek olmamıştır. (16)
Devam edecek: Yapay zekânın seçimler üzerindeki olası etkileri
Anahtar sözcükler: Deepfakes, Derin sahtecilik, Emeğin sıradanlaşması, Yaratıcı yapay zekâ.
Dip notlar:
- https://www.guvenliweb.org.tr/blog-yazdir/dijital-mecralarda-dezenformasyon (13 Mart 2024).
- https://theconversation.com/deepfakes-are-still-new-but-2024-could-be-the-year-they-have-an-impact-on-elections (19 March 2024).
- Margrethe Vestager , “How to Think About AI Policy”, https://www.project-syndicate.org/magazine/europe-ai-regulation-focuses-on-uses-not-technology-by-margrethe-vestager (11 March 2024).
- Deepfakes, trolls and cybertroopers: how social media could sway elections in 2024, https://www.nature.com/articles (31 January 2024).
- https://theconversation.com/deepfakes-are-still-new-but-2024-could-be-the-year-they-have-an-impact-on-elections (19 March 2024).
- https://onedio.com/haber/kilicdaroglu-nun-deep-fake-cikisinin-ardindan-o-goruntuler-yeniden-gundemde ( 4 Mayıs 2023).
- https://www.techtarget.com/searchenterpriseai/definition/AI-Artificial-Intelligence (18 Mart 2024).
- https://thenextrecession.wordpress.com/robots-and-ai-utopia-or-dystopia-part-one (23 August 2015).
- https://www.indiatoday.in/opinion-columns/story/chatgpt-must-lead-to-basic-income-for-everyone-and-an-end-to-bullshit-jobs-opinion (23 December 2022).
- https://www.mckinsey.com/capabilities/risk-and-resilience/our-insights/implementing-generative-ai-with-speed-and-safety (13 March 2024).
- Vestager, agç.
- Agç.
- https://tr.euronews.com/2023/05/02/rapor-yapay-zekayla-kurulan-haber-siteleri-yanlis-bilgilerin-yayilmasina-neden-oluyor (2 May 2023).
- Robert Ovetz, “AI and the Future of Work”, https://www.dollarsandsense.org (Kasım/Aralık 2023).
- Stephanie A. Bell and Anton Korinek, “AI's Economic Peril”, Journal of Democracy , Volume 34, Number 4, October 2023, Johns Hopkins University Press, https://muse.jhu.edu (18 Mart 2024).
- https://jacobin.com/2024/01/the-silicon-tongued-devil (18 Mart 2024).