1:55 pm World

“Botçöp”e dikkat: Üretken yapay zeka yaşam biçimimiz için neden bu kadar gerçek ve yakın bir tehdit?

Üretken yapay zeka yaşam biçimimiz için neden bu kadar gerçek ve yakın bir tehdit?

André Spicer‘dan* çeviren: Mersiye

2023 yılında siyasetin nasıl şekillendiği bir videoda ortaya çıktı. Videoda Demokrat Parti’nin eski başkan adayı ve Dışişleri Bakanı Hillary Clinton şöyle diyordu: “İnsanlar bunu söylediğimi duyunca şaşırabilir ama aslında Ron DeSantis’i çok seviyorum. Onun tam da bu ülkenin ihtiyaç duyacağı türden bir adam olduğunu söyleyebilirim.” Clinton’ın Cumhuriyetçi bir başkan adayını sıcak bir şekilde desteklemesi garip görünüyor.

Daha sonraki incelemeler videonun üretken yapay zeka (YZ) kullanılarak üretildiğini ortaya çıkardı.

Clinton videosu, üretken yapay zekanın yakın gelecekte siyaseti nasıl derinden etkileyebileceğinin sadece küçük bir örneği. Uzmanlar bunun seçimlere yönelik sonuçlarına dikkat çekiyorlar; örneğin yanlış bilgilerin çok az maliyetle ya da sıfır maliyetle yaratılması, seçmenleri manipüle etmek için son derece kişileştirilmiş reklamların üretilmesi. Sonuçlar, kasım ayındaki ABD seçimlerinden hemen önce, yanlış bilgilerin dolaşıma girdiği ve bunları yalanlamak için yeterli zamanın olmadığı “Ekim sürprizleri” denilen haberler ya da seçim merkezlerinin nerede olduğu gibi seçim yönetimi hakkında yanıltıcı bilgilerin üretilmesi olabilir.

Üretken yapay zekanın seçimler üzerindeki etkisine ilişkin endişeler, dünya genelinde milyarlarca insanın oy kullanacağı bir yıla girerken aciliyet kazanmıştır. 2024 yılı boyunca Tayvan, Hindistan, Rusya, Güney Afrika, Meksika, İran, Pakistan, Endonezya, Avrupa Birliği, ABD ve Birleşik Krallık’ta seçimlerin yapılacağı tahmin ediliyor. Bu seçimlerin birçoğu sadece ulus devletlerin geleceğini belirlemeyecek, aynı zamanda jeopolitik gerilimler ve iklim krizi gibi küresel zorluklarla nasıl başa çıkacağımızı da şekillendirecek. Bu seçimlerin her birinin, tıpkı 2010’lu yıllardaki seçimlere sosyal medyanın şekil vermesinde olduğu gibi yeni üretken yapay zeka teknolojileri tarafından etkilenmesi muhtemel görünüyor.

Politikacılar 2010’larda seçimleri şekillendirmek için sosyal medyanın gücünden faydalanarak milyonlar harcarken yapay zeka boş ve yanıltıcı bilgi üretmenin maliyetini etkili bir şekilde sıfıra indiriyor. Bu durum özellikle endişe verici çünkü geçtiğimiz on yıl boyunca “saçmalık” olarak adlandırılan şeyin siyasette oynayabileceği role tanık olduk. Princeton’lı filozof Harry Frankfurt konuyla ilgili yazdığı kısa bir kitapta saçmalık terimini şöyle tanımlamıştı: Gerçeği dikkate almadan ikna etmeye yönelik konuşma. Bu, 2010’lu yıllar boyunca siyasi liderler arasında giderek yaygınlaşan bir uygulama haline geldi. Üretken yapay zekanın ve ChatGPT gibi teknolojilerin yükselişiyle birlikte, meslektaşlarımın ve benim “botçöp” (“botshit”) olarak adlandırdığımız bir fenomenin yükselişini görüyoruz.

Yakın tarihli bir makalede Tim Hannigan, Ian McCarthy ve ben, botçöpün tam olarak ne olduğunu ve nasıl çalıştığını anlamaya çalıştık. ChatGPT gibi yapay zeka teknolojilerinin “halüsinasyon” olarak adlandırılan şeyler üretebileceği iyi bilinmektedir. Bunun nedeni YZ’nin soruları istatistiksel bilgiye dayalı tahminler yaparak yanıtlamasıdır. Genellikle bu tahminler doğrudur ancak bazen çılgınca yanılırlar. Sonuç, yüzeysel olarak akla yatkın görünen ancak aslında sorulan sorunun doğru cevabı olmayan açıklamalar veya görüntüler gibi gerçeklikle çok az ilişkisi olan ve yapay olarak üretilmiş “halüsinasyonlar” olabilir.

İnsanlar, yapay zeka tarafından yaratılan gerçek olmayan materyalleri eleştirel olmayan şekilde ve düşüncesizce kullanabilirler. Bu da insanların dünyada neyin doğru, neyin yanlış olduğunu bilmelerini zorlaştırabilir. Bazı durumlarda, bu riskler nispeten düşük olabilir, örneğin üretken YZ çok önemli olmayan bir görev için kullanılmışsa (bir doğum günü partisi konuşması için bazı fikirler bulmak gibi) veya çıktının doğruluğu başka bir kaynak kullanılarak kolayca doğrulanabiliyorsa (Waterloo Savaşı’nın ne zaman gerçekleştiği gibi). Gerçek sorunlar, yapay zekanın çıktılarının önemli sonuçları olduğunda ve çıktılar kolayca doğrulanamadığında ortaya çıkar.

Ekonominin durumu veya Ukrayna’daki savaş gibi önemli ancak doğrulanması zor soruları yanıtlamak için yapay zeka tarafından üretilen halüsinasyonlar kullanılırsa bazı insanların tamamen hayalî bir evrene dayanarak önemli oylama kararları vermeye başladığı bir ortam yaratma tehlikesi vardır. Seçmenlerin, yapay zeka halüsinasyonları ve siyasi çıkarların zehirli bir karışımına dayanarak oluşturulmuş yapay gerçeklilerde yaşaması tehlikesi vardır.

Yapay zeka teknolojileri tehlike arz etse de bunları kontrol etmek için alınabilecek önlemler de vardır. Teknoloji şirketleri, kullanıcıların yapay zeka tarafından üretilen içeriği kolayca tanımlamasına olanak tanıyan filigranlar kullanmaya devam edebilir. Ayrıca yapay zekanın güvenilir bilgi kaynakları üzerinde eğitilmesini sağlayabilirler. Gazeteciler, bir seçim döngüsü sırasında yapay zeka tarafından oluşturulan hikayeleri haber yapmaktan kaçınmak için ekstra önlemler alabilirler. Siyasi partiler, yapay zeka tarafından üretilen aldatıcı bilgilerin kullanılmasını önlemek için politikalar geliştirebilirler. En önemlisi de seçmenler emin olmadıkları önemli bilgileri gerçeklik kontrolünden geçirerek eleştirel yargılarını kullanabilirler.

Üretken yapay zekanın yükselişi şimdiden birçok mesleği ve sektörü temelden değiştirmeye başladı. Siyaset de bu değişimin ön saflarında yer alacak gibi görünüyor. Brookings Enstitüsü, üretken yapay zekanın siyasette kullanılabileceği birçok olumlu yol olduğuna işaret ediyor. Ancak şu anda olumsuz kullanımları son derece yaygın ve bizi yakın zamanda etkileme olasılığı ise çok yüksek. Üretken yapay zekanın faydalı amaçlar için kullanılmasını ve sadece daha fazla botçöpe yol açmamasını sağlamak için çabalamamız hayati önem taşıyor.


*Makalenin aslı: https://www.theguardian.com/commentisfree/2024/jan/03/botshit-generative-ai-imminent-threat-democracy


*Yazılar, yazarlarının/çevirenlerinin sorumluluğundadır, Fikirtepe‘nin kurumsal politikasını yansıtmayabilir.

Visited 51 times, 1 visit(s) today

Close