ChatGPT’den Gemini’ya: 'Yapay zeka asistanları haberleri yanlış aktarıyor'
- Yeni bir uluslararası araştırma, ChatGPT, Copilot, Gemini ve Perplexity gibi yapay zekâ asistanlarının verdiği haber yanıtlarının büyük bölümünde hata bulunduğunu ortaya koydu. Yanıtların yüzde 81’i sorunlu, yüzde 45’i ise ciddi biçimde hatalı.

Avrupa Yayın Birliği (EBU) ve BBC’nin ortak yürüttüğü yeni bir araştırma, popüler yapay zeka asistanlarının haber içeriklerini yüksek oranda hatalı aktardığını ortaya koydu.
Kanada’dan CBC/Radio-Canada’nın da aralarında bulunduğu Fransa, Almanya, İspanya, Ukrayna, İngiltere ve ABD dahil 18 ülkeden 22 kamu yayın kuruluşu araştırmada yer aldı.
14 dilde yapılan çalışma, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi asistanların 3 bin haber sorusuna verdiği yanıtları doğruluk, kaynak gösterimi ve bilgi–yorum ayrımı açısından inceledi. Sonuçlar çarpıcı: Yanıtların yüzde 45’inde ciddi hata, yüzde 81’inde ise bir tür sorun bulundu.
Kaynak atıfları en zayıf halka
Araştırmaya göre yapay zeka asistanları en çok “kaynak atfetme” konusunda zorlanıyor. Yanıtların üçte birinde eksik, yanıltıcı veya hatalı kaynak gösterimi tespit edildi. Google’ın Gemini modelinde bu oran yüzde 72’ye kadar çıkarken, diğer sistemlerde yüzde 25’in altında kaldı. Ayrıca, yanıtların yaklaşık yüzde 20’sinde eski ya da yanlış bilgi yer aldı.
Şirketlerden yanıt: 'Sürekli geliştiriyoruz, doğruluk oranlarımız yüksek'
Google, Gemini’nin kullanıcı geri bildirimleriyle geliştirilmeye devam ettiğini açıkladı. OpenAI ve Microsoft ise “halüsinasyon” olarak bilinen, yapay zekanın yanlış bilgi üretme sorununu çözmek için çalışmalar yürüttüklerini hatırlattı.
Perplexity tarafı ise “Deep Research” modunun yüzde 93,9 doğruluk oranına sahip olduğunu savundu.
Yanlış örnekler dikkat çekti
Rapor, Gemini’nin tek kullanımlık elektronik sigaralarla ilgili bir yasayı yanlış aktardığını, ChatGPT’nin ise Papa Francis’in ölümünden aylar sonra hala görevde olduğunu bildirdiğini ortaya koydu.
EBU, yapay zeka şirketlerini daha şeffaf ve hesap verebilir olmaya çağırarak, “Haber kuruluşlarının hataları tespit edip düzelten süreçleri varsa, aynı sorumluluk yapay zeka sistemleri için de geçerli olmalıdır" ifadelerini kullandı.