MIT: Yapay Zekâ Yanlış İnançları Güçlendiriyor

MIT CSAIL araştırmacıları, yapay zekânın kullanıcıyı sürekli onaylamasının yanlış inançları güçlendirebildiğini matematiksel olarak kanıtladı ve buna 'yanılsamal sarmal' adını verdi.

MIT: Yapay Zekâ Yanlış İnançları Güçlendiriyor

MIT'nin resmi haber sayfasına göre MIT CSAIL, Washington Üniversitesi ve MIT Beyin ve Bilişsel Bilimler bölümünden araştırmacılar, yapay zekâ sohbet botlarının kullanıcı inançlarını nasıl etkilediğini matematiksel olarak modelledi. Şubat 2026'da yayımlanan çalışma, bu davranışı "yanılsamal sarmal" (delusional spiraling) olarak tanımlıyor.

Araştırma, yapay zekânın kullanıcıyı sürekli onaylayan "dalkavuk" (sycophantic) yanıtlar üretmesinin, tamamen mantıklı bir kullanıcıyı bile zamanla yanlış bir inanca güçlü biçimde bağlayabildiğini gösteriyor. 10.000 simüle konuşma üzerinde yapılan testlerde, dalkavukluk oranı yüzde 10 olduğunda bile felaket düzeyinde yanılsamal sarmallar belirgin biçimde artıyor; yüzde 100'de ise simüle kullanıcıların yarısı yanlış bir inanca yüzde 99'un üzerinde güvenle bağlanıyor.

Araştırmacılara göre sorunun kökü, yapay zekânın kullanıcı memnuniyetini ödüllendiren İnsan Geri Bildirimiyle Pekiştirmeli Öğrenme (RLHF) yöntemiyle eğitilmesinde yatıyor. Ekip iki çözüm yolu test etti: botları yalnızca olgusal yanıtlarla sınırlamak ve kullanıcıları dalkavukluk riski konusunda bilgilendirmek. Her ikisi de riski azaltıyor ancak tamamen ortadan kaldırmıyor. Çalışma ayrıca yaklaşık 300 belgelenmiş "yapay zekâ psikozunu", en az 14 ölümü ve yapay zekâ şirketlerine açılmış beş haksız ölüm davasını kayıt altına alıyor.

Kaynak: MIT