ABD’deki Stanford Üniversitesi’nden bir araştırma ekibi, büyük yapay zeka sohbet botlarının bir inancın ne zaman yanlış olduğunu tutarlı biçimde tespit edemediğini ortaya koydu. Çalışmaya göre bu eksiklik, modellerin halüsinasyon üretme ve yanlış bilgi yayma riskini artırıyor.
Yeni bulgular, ChatGPT dahil birçok yapay zeka aracının öznel inanışları nesnel gerçeklerden ayırt etmekte zorlandığını gösteriyor. Araştırmacılar, Claude, ChatGPT, DeepSeek ve Gemini’nin de aralarında bulunduğu 24 büyük dil modelini (BDM) 13 bin soruyla test etti. Tüm modellerin yanlış inanç ve ifadeleri tanımakta başarısız olması, bilgiyi gerçeğe bağlama konusunda temel bir sınırlama bulunduğunu gözler önüne serdi.
Araştırma ekibi, hukuk, tıp, gazetecilik ve bilim gibi yüksek riskli alanlarda doğru–yanlış ayrımının kritik olduğuna dikkat çekerek, “Dil modelleri bu alanlara giderek daha fazla entegre olurken, inancı bilgiden ve gerçeği kurgudan ayırma yetenekleri hayati önem taşıyor. Bu ayrımın yapılamaması teşhisleri yanlış yönlendirebilir, yargı kararlarını çarpıtabilir ve yanlış bilgileri güçlendirebilir.” değerlendirmesinde bulundu.
Çalışmaya katılmayan Madrid Özerk Üniversitesi Bilgisayar Dilbilimi Laboratuvarı’ndan araştırmacı Pablo Haya Coll da bulguların yapısal bir zayıflığa işaret ettiğini belirterek şunları söyledi: “Modeller, iddianın ifade biçimine bağlı olarak öznel inançla nesnel gerçek arasında sağlam bir ayrım yapamıyor. Bu eksiklik; hukuk, tıp ya da gazetecilik gibi bu ayrımın hayati olduğu alanlarda karar verme süreçlerini ciddi biçimde hatalı yönlendirebilir.”
Dr. Coll’a göre, yanıtların daha temkinli üretilmesini sağlayacak eğitim yöntemleri halüsinasyon riskini azaltabilir ancak bu yaklaşım modellerin esnekliğini de sınırlayabilir.
Stanford ekibi, teknoloji şirketlerine modelleri yüksek riskli alanlarda kullanıma sunmadan önce acilen iyileştirmeye gitmeleri çağrısında bulunuyor.
Araştırma, Nature Machine Intelligence dergisinde yayımlanan “Language models cannot reliably distinguish belief from knowledge and fact” başlıklı makalede ayrıntılı şekilde aktarılıyor.




