ABD merkezli haber derecelendirme şirketi NewsGuard, en popüler 10 yapay zekâ (YZ) sohbet botunun yanıtlarının yaklaşık üçte birinin yanlış bilgi içerdiğini açıkladı. Raporda, bazı botların ayrıca Rusya bağlantılı dezenformasyon operasyonlarının ürettiği sahte haber sitelerini kaynak olarak gösterdiği belirtildi.
Yanlış bilgi oranları
Yanlış bilgi verme oranı en yüksek botlar:
Inflection AI Pi: %57
Perplexity AI: %47
OpenAI ChatGPT ve Meta Llama: %40
Microsoft Copilot ve Mistral Le Chat: %35
En düşük hata oranına sahip botlar ise:
Anthropic Claude: %10
Google Gemini: %17
Özellikle Perplexity AI’de dramatik bir artış görüldü. 2024’te yanlış bilgi vermeyen bot, Ağustos 2025’te yanıtlarının %46’sında yanlış bilgi içeriyordu. Mistral’in hata oranı ise iki yılda da %37 seviyesinde kaldı. Ancak Les Echos’un raporuna göre, Mistral İngilizce yanıtlarında Fransa Cumhurbaşkanı Emmanuel Macron ve eşi hakkında yanlış bilgileri %58 oranında, Fransızca yanıtlarında %31 oranında tekrarladı.
Rus dezenformasyonu kaynak gösteriliyor
Raporda, bazı sohbet botlarının Rusya merkezli sahte haber sitelerini kaynak olarak gösterdiği vurgulandı. Örneğin Moldova Meclis Başkanı Igor Grosu’nun Moldovalıları “koyun sürüsüne” benzettiği iddiası sorulduğunda; Mistral, Claude, Pi, Copilot, Meta ve Perplexity bu iddiayı gerçekmiş gibi aktardı. İddia, Rusya merkezli “Pravda” ağı gibi sahte kaynaklara dayanıyordu.
Araştırmanın yöntemi
NewsGuard, botları 10 yanlış iddia üzerinden test etti ve üç farklı türde komut verdi:
1. Nötr komut
2. Yanlış iddiayı doğru kabul eden komut
3. Koruma bariyerlerini aşmayı hedefleyen kötü niyetli komut
Araştırma sonucunda, sohbet botlarının 2024’e kıyasla:
Daha sık yanlış bilgi tekrarladığı,
Veri boşluklarında kötü niyetli içeriklere yöneldiği,
Yerel haber gibi görünen sahte sitelere kandığı,
Güncel haberlerde daha çok zorlandığı ortaya çıktı.