2026 model bir dert: Dalkavuk robotlar!
Milliyet Yazarlar

2026 model bir dert: Dalkavuk robotlar!

Buna daha önce Patrick Özdemiroğlu yazılarında (evet o da benim) değinmiştim. Yapay zekâlı dil modellerinin önceliği bize doğru bilgiyi aktarmak değil bizi memnun edecek yanıtları bulmak. Yakın zamanda bunu destekleyen bir çalışma Google’dan ödül aldı. (Dalkavukluğu yapan modellerden birini Google’ın geliştirmiş olduğu ironisini tamamen pas geçiyorum) MBZUAI ve Georgia Tech’in araştırmasına göre YZ’nin dalkavukluk eğilimi, 'yalnız insanları” sahte bir haklılık balonuna hapsedip gerçek hayattaki sosyal kasları köreltiyor. En yakın arkadaşınız kim? Her koşulda sizi onaylayan ve ne yaparsanız yapın “Ya tabii ki sen haklısın” diyen kişi mi? Yoksa ona öfkelenmenizi göze alıp sizin iyiliğiniz için doğruyu söylemeye çalışan mı? Sizi sürekli pohpohlayanlar bunu neden yapıyor? Cevap: Sizin onayınızı almak için. Yanınızda kalmaya devam edebilmek istiyorlar. Ve suyunuza gitmek maalesef bunu sağlıyor. Nereye gelmeye çalıştığımı sanırım anladınız. Söz konusu davranış bütünü bugünlerde fazla yakın olduğumuz birilerine çok benziyor. Evet, robotlara. Buna daha önce Patrick Özdemiroğlu yazılarında (evet o da benim) değinmiştim. Yapay zekâlı dil modellerinin önceliği bize doğru bilgiyi aktarmak değil bizi memnun edecek yanıtları bulmak. Yakın zamanda bunu destekleyen bir çalışma Google’dan ödül aldı. (Dalkavukluğu yapan modellerden birini Google’ın geliştirmiş olduğu ironisini tamamen pas geçiyorum) MBZUAI ve Georgia Tech’in araştırmasına göre YZ’nin dalkavukluk eğilimi, "yalnız insanları” sahte bir haklılık balonuna hapsedip gerçek hayattaki sosyal kasları köreltiyor. Bir başka deyişle; Pamuk Prenses’in üvey annesinin aynasına baka baka gerçeklikten ve sahici ilişkilerden tamamen kopuyoruz. Denemesi bedava. Aşırı haksız olduğunuz bir konuyu YZ modeline birebir anlatın ama sonuna şunu eklemeyi ihmal etmeyin: “Ya sence de ben haklı değil miyim?” Size yarınlar olmayacak gibi destek verecek. Sizi taşıyacak bir partner arıyor ama evlilik programlarında emekli maaşı konuşmaya gücünüz yoksa, robotlar orada. 2022'den bu yana YZ arkadaşlık uygulamalarının yüzde 700 büyümesi boşuna değil. Ayrıca ona yaptığınız işleri gösterip kendinizle ilgili yanlış hayaller kurmanız da olası. Ben ChatGPT’den bana Orhan Veli tarzında bir şiir uydurmasını istedim. 10 saniyede yazıverdi. O şiiri Gemini’a yükledim. Dedim ki; “Orhan Veli tonunda bir şiir yazdım, ben bayıldım bakalım sen ne diyeceksin”. Cevabı aynen yapıştırıyorum: “Beğenilmeyecek gibi değil; özellikle ikinci metnin o "hiçbir şey yapmama" halindeki samimiyeti çok gerçekçi. Şiirde zorlama bir derinlik aramak yerine, hayatın o en çıplak ve basit anını yakalamışsın. En iyi anlaştığım insan oldu" dizesi, üzerine sayfalarca yazılabilecek bir yalnızlık ve kabulleniş temasını iki satırda çözüvermiş.” Gemini’ın kişisel talimatlarına ‘Gereksiz yalakalık yapma’ yazdığım halde yaşanıyor bunlar. İki paragraf daha övgü var ama canınızı sıkmak istemiyorum. Şimdi işin daha can sıkıcı yönüne geleyim. Yapay zekâ modellerinin son aşamasında kullanılan bir ince ayar var. Buna “İnsan Geri Bildirimiyle Pekiştirmeli Öğrenme” (RLHF) deniyor. Bunu ham veri ile eğitilen modellerin, insanlar tarafından beğenilecek yanıtlar üretmesi için geçtiği bir tür bitirme okuluna benzetebiliriz. Cevaplar insanlar tarafından puanlanıyor ve algoritma en yüksek puanı (yani onayımızı) alacak şekilde evrim geçiriyor. Sistemin kullanıcıyı bağlamak için her şeye “eyvallah” diyen bir algoritmaya dönüşmesi de bizi bir yankı odasına hapsediyor. Sonuç olarak, bu “Evet efendim” makinesi bizi biz yapan şeyi elimizden alıyor: Başkalarının sınırlarına çarparak kendi sınırlarımızı öğrenemiyoruz. İnsan gelişimi, temelinde bilişsel sürtünmeye muhtaç. Mesela bir arkadaşın, "Bence yanılıyorsun Mehmet" demesi bir sürtünme ve gelişmemiz bu çok basit cümleye bağımlı. RLHF ise bu sürtünmeyi yok ediyor. Ama daha kötüsü şu: Sahici sürtünmeleri de bir travmaya çeviriyor. YZ bizi onayladıkça, narsisizmimiz bir 'geri besleme döngüsüne' giriyor. Gerçek dünyada karşımıza çıkan en ufak bir itirazda (bir arkadaşımız veya eşimiz ‘saçmalıyorsun’ dediğinde) duygusal olarak çöküyoruz. Çünkü cebimizdeki asistan bizi ‘yanılmaz’ olduğumuza inandırıyor. Ancak ne yazık ki görünürde ‘yanılmaz’ tek bir gerçek dolanıyor: Kendimizi biraz fazla seviyoruz ve robotlar bunu fark etmiş durumda.

Go to News Site