Teknoloji

ChatGPT neden bilmiyorum demiyor

Araştırmacılara göre ChatGPT, belirsizlik karşısında dürüst davranıp bilmiyorum demek yerine tahmin yürütme yolunu seçiyor.

Yeni bir araştırma, ChatGPT gibi üretken yapay zekâ modellerinin “halüsinasyon” olarak adlandırılan, yani gerçeğe dayanmayan bilgiler üretmesinin temel nedenini ortaya koydu.

Buna göre sorun, modellerin bilgi eksikliğini kabul etmek yerine tahmin yürütmeye teşvik edilmesinden kaynaklanıyor.

Halüsinasyon, üretken yapay zekâ teknolojilerinin en ciddi sorunlarından biri olarak görülüyor. Çünkü bu modeller, yanlış bilgileri dahi son derece inandırıcı ve kendinden emin bir biçimde sunabiliyor.

Yapay zekâ sistemleri son yıllarda hızla gelişse de, halüsinasyon sorunu en yeni modellerde bile devam ediyor. Uzmanlara göre özellikle tıp ve hukuk gibi yüksek riskli alanlarda bu durum, doğruluk ve güvenlik açısından ciddi riskler barındırıyor.

“Yanlış teşvikler” sorunun kökeninde

OpenAI araştırmacılarının yürüttüğü yeni çalışmada, halüsinasyonun sadece hatalı eğitim verilerinden veya model karmaşıklığından değil, asıl olarak algoritmaların yanlış teşviklerle değerlendirilmesinden kaynaklandığı belirtildi.

Araştırmacılar, “Çoğu değerlendirme sistemi, modelleri belirsizlik karşısında dürüst davranmaktan çok tahmin yürütmeye teşvik ediyor” diyor.

Bu durum, “boş bırakmanın puan getirmediği bir testte öğrencinin rastgele işaretleme yapması” benzetmesiyle açıklanıyor.

‘Bilmiyorum’ demek yerine tahmin yürütüyorlar

Dil modelleri, büyük metin bloklarında bir sonraki kelimeyi tahmin ederek öğreniyor.

Ancak eğitim verilerindeki rastgelelik, modellerin bazen doğru kalıpları değil, yanıltıcı ilişkileri öğrenmesine yol açıyor.

Belirsiz veya eksik bilgi içeren sorular karşısında, yapay zekâ sistemleri çoğu zaman stratejik tahminler yapıyor.

Bu, uzun vadede bazı doğruluk artışları sağlasa da halüsinasyon oranını da yükseltiyor.

Araştırmacılar, “Modellerin belirsizliği kabul etmek yerine kendinden emin biçimde yanlış cevaplar üretmesinin nedeni bu” değerlendirmesinde bulunuyor.

Basit ama etkili bir çözüm önerisi

Çalışmaya göre çözüm, modellerin “kendinden emin yanlışlar” üretmesini cezalandırmak ve belirsizlik ifade edildiğinde kısmi puan vermek olabilir.

Bu yaklaşım, yanlış cevaplara eksi puan; boş bırakılanlara ise az da olsa puan verilen test sistemlerine benzetiliyor.

Araştırmacılar, “Doğruluğa dayalı mevcut değerlendirme sistemleri güncellenmeli, tahmin yürütmeyi teşvik eden puanlama yapısı değiştirilmeli” görüşünde birleşiyor.

Böylece halüsinasyonların önündeki engeller kaldırılarak daha güvenilir ve nüanslı dil modellerinin geliştirilebileceği vurgulanıyor.