Yapay zekâ destekli sohbet botları son yıllarda hızla yaygınlaştı. Teknoloji devleri bu sistemleri arama motorlarına, sosyal medya platformlarına ve haber akışlarına entegre ediyor. Ancak BBC’nin yürüttüğü yeni araştırma, sohbet botlarının haber kaynaklarını yorumlarken ciddi hatalar yaptığını ortaya çıkardı.
Yapay Zekâ Chatbotları Haberlerde Hata Payını Azaltamıyor
BBC’nin Avrupa’daki 22 kamu yayın kuruluşuyla birlikte yürüttüğü çalışma, sohbet botlarının haber içeriklerine dayanan yanıtlarının yüzde 45’inde yanlış bilgi bulunduğunu belirledi. Bu hatalar arasında eksik ya da hatalı cümleler, yanlış alıntılar ve güncelliğini yitirmiş veriler yer aldı.
BBC’nin araştırması, sohbet botlarının haber kaynaklarını yorumlama konusundaki zayıflığını bir kez daha gösterdi. OpenAI, Google ve Microsoft gibi şirketler, kullanıcıların bilgiye erişim biçimini dönüştürmeyi hedeflese de doğruluk oranı hâlâ düşük seviyede kaldı. Chatbotlar çoğu zaman kaynak gösterirken yanlış bağlantılar verdi ya da kaynağın içeriğiyle ilgisiz yönlendirmeler yaptı.
Araştırmada sohbet botlarının özellikle haber analizlerinde yorumla gerçeği karıştırdığı ve mizah içerikli haberleri gerçek haberlerden ayırt etmekte zorlandığı belirlendi. Bu durum, kullanıcıların yanlış yönlendirilmesine yol açabiliyor.
Çalışmada en dikkat çekici bulgulardan biri, chatbotların güncel bilgi eksikliğiydi. ChatGPT, Copilot ve Gemini gibi popüler modeller, bazı dünya liderlerinin görev durumlarını hatalı aktardı. Örneğin, Papa Francis’in hâlen görevde olduğunu belirtirken, onun ölüm tarihini doğru biçimde yazan Copilot aynı anda çelişkili bilgiler verdi. Aynı hata Almanya Başbakanı ve NATO Genel Sekreteri için de tekrarlandı.
Uzmanlara göre bu tutarsızlıklar, yapay zekâ modellerinin veri güncellemelerini doğru yorumlayamamasından kaynaklanıyor. Sistemlerin geniş bilgi havuzuna erişimi olsa bile, hangi bilginin en güncel ve doğru olduğunu belirlemede zorlandığı görülüyor.
BBC raporunda en yüksek hata oranı Google’ın Gemini adlı sohbet botunda tespit edildi. Gemini’nin yanıtlarının yüzde 72’sinde kaynak hatası bulundu. ChatGPT, Copilot ve Perplexity gibi rakipler daha iyi sonuç verse de kusursuz bir doğruluk oranına ulaşamadı.
Geçmişte OpenAI, bu tür hataları eski sürümlerin 2021 öncesi verilerle eğitilmesine bağlamıştı. Ancak güncel sürümlerin internete erişimi olmasına rağmen hatalar devam ediyor. Bu durum, sorunun algoritmaların yapısal sınırlarından kaynaklandığını düşündürüyor.
Araştırmanın en çarpıcı sonucu, kullanıcıların bu sistemlere duyduğu güven oldu. İngiltere’de yetişkinlerin üçte birinden fazlası, haberleri özetlemede sohbet botlarının doğru bilgi verdiğine inanıyor. 35 yaş altı kullanıcıların yaklaşık yarısı ise yapay zekâ tarafından oluşturulan haber özetlerini güvenilir buluyor.
Uzmanlar, bu güvenin medya kuruluşları açısından ciddi bir tehdit oluşturduğunu belirtiyor. BBC’nin verilerine göre, sohbet botları haberleri yanlış aktardığında kullanıcıların yüzde 42’si yalnızca botu değil, aynı zamanda haber kaynağını da suçluyor. Bu durum, geleneksel medya kurumlarının itibarını zedeleyebilecek bir risk doğuruyor.
BBC’nin önceki şubat ayında yaptığı araştırmada hata oranı yüzde 51 seviyesindeydi. Yeni çalışma, bu oranın yüzde 37’ye düştüğünü gösterse de hâlâ yüksek bir hata payı söz konusu. Teknoloji devlerinin milyarlarca dolar yatırım yaptığı sohbet botlarının doğru bilgi sunma konusunda uzun bir yola ihtiyacı olduğu düşünülüyor.
Uzmanlar, yapay zekâ araçlarının haber üretimi ve paylaşımında yardımcı rol oynamasının kaçınılmaz olduğunu ancak doğrulama süreçlerinin insan kontrolünden çıkmaması gerektiğini vurguluyor.