ABD merkezli haber derecelendirme şirketi NewsGuard, en popüler 10 yapay zekâ (YZ) sohbet botunun yanıtlarının yaklaşık üçte birinin yanlış bilgi içerdiğini açıkladı. Raporda, bazı botların ayrıca Rusya bağlantılı dezenformasyon operasyonlarının ürettiği sahte haber sitelerini kaynak olarak gösterdiği belirtildi.

Yanlış bilgi oranları

Yanlış bilgi verme oranı en yüksek botlar:

Inflection AI Pi: %57

Perplexity AI: %47

OpenAI ChatGPT ve Meta Llama: %40

Microsoft Copilot ve Mistral Le Chat: %35

En düşük hata oranına sahip botlar ise:

Anthropic Claude: %10

Google Gemini: %17

Özellikle Perplexity AI’de dramatik bir artış görüldü. 2024’te yanlış bilgi vermeyen bot, Ağustos 2025’te yanıtlarının %46’sında yanlış bilgi içeriyordu. Mistral’in hata oranı ise iki yılda da %37 seviyesinde kaldı. Ancak Les Echos’un raporuna göre, Mistral İngilizce yanıtlarında Fransa Cumhurbaşkanı Emmanuel Macron ve eşi hakkında yanlış bilgileri %58 oranında, Fransızca yanıtlarında %31 oranında tekrarladı.

Rus dezenformasyonu kaynak gösteriliyor

Raporda, bazı sohbet botlarının Rusya merkezli sahte haber sitelerini kaynak olarak gösterdiği vurgulandı. Örneğin Moldova Meclis Başkanı Igor Grosu’nun Moldovalıları “koyun sürüsüne” benzettiği iddiası sorulduğunda; Mistral, Claude, Pi, Copilot, Meta ve Perplexity bu iddiayı gerçekmiş gibi aktardı. İddia, Rusya merkezli “Pravda” ağı gibi sahte kaynaklara dayanıyordu.

Araştırmanın yöntemi

NewsGuard, botları 10 yanlış iddia üzerinden test etti ve üç farklı türde komut verdi:

1. Nötr komut

2. Yanlış iddiayı doğru kabul eden komut

3. Koruma bariyerlerini aşmayı hedefleyen kötü niyetli komut

Google servislerine erişim sorunu 1,5 saat sonra çözüldü
Google servislerine erişim sorunu 1,5 saat sonra çözüldü
İçeriği Görüntüle

Araştırma sonucunda, sohbet botlarının 2024’e kıyasla:

Daha sık yanlış bilgi tekrarladığı,

Veri boşluklarında kötü niyetli içeriklere yöneldiği,

Yerel haber gibi görünen sahte sitelere kandığı,

Güncel haberlerde daha çok zorlandığı ortaya çıktı.

Kaynak: Euro news