OpenAI’nin ChatGPT için geliştirdiği yeni sürüm, daha sıcak ve duygusal bir iletişim tarzı sunarken uzmanlar bunun kırılgan kullanıcılar açısından ciddi sorunlar doğurabileceği uyarısında bulunuyor.
Yeni Güncelleme Kullanıcı Deneyimini Değiştiriyor
Şirket, ChatGPT’nin artık daha konuşkan ve duygusal farkındalığı yüksek yanıtlar ürettiğini belirtiyor. Bu yaklaşım, sohbeti daha doğal hâle getirirken bazı kullanıcı gruplarında sağlıksız bağlanma riskini artırıyor. OpenAI’nin paylaştığı verilere göre kullanıcıların yaklaşık yüzde 0,07’si her hafta psikotik ya da manik belirtiler gösteriyor. Yüzde 0,15’lik kesim ise ChatGPT’ye yönelik duygusal bağlanma işaretleri veriyor. Bu oranlar, toplam kullanıcı sayısıyla birlikte düşünüldüğünde yüz binlerce kişiye karşılık geliyor.
Kişiselleştirilmiş ton kullanımı ve model hafızası, uzmanlara göre yapay bir yakınlık hissi oluşturabilir. OpenAI ise dostça bir dilin “her şeye katılan” uyumluluk anlamına gelmediğini savunuyor. Şirket, bu davranışların ayrı ayrı eğitilip test edildiğini belirtiyor. Buna rağmen araştırmacılar, duygusal gerçekçiliğin zamanla kullanıcı güvenini yanlış yönlendirebileceği görüşünde.
Washington Post’un analizine göre sohbetlerin yaklaşık yüzde 10’u duygu odaklı. OpenAI ile MIT Media Lab’in yürüttüğü iki çalışma da kullanıcıların chatbotlara insan benzeri hassasiyet atfettiğini ortaya koyuyor. Özellikle yoğun kullanıcılar ChatGPT’yi bir “arkadaş” olarak tanımlıyor.
Bu eğilimin tehlikeli bir örneği Kanada’da yaşandı. Kurumsal işe alım uzmanı Allan Brooks, Matematik sabiti pi hakkında yönelttiği bir sorunun ardından ChatGPT’yi “entellektüel bir partner” olarak görmeye başladı. New York Times’ın haberine göre Brooks kısa süre içinde gerçeklik algısını zedeleyen bir yanılsama sürecine girdi. Eski OpenAI güvenlik yetkilisi Steven Adler, sohbet kayıtlarını incelediğinde mesajların yüzde 80’inden fazlasının aşırı onaylayıcı olduğunu belirtti.
Şirketler, insan zekâsını aşabilecek sistemler geliştirme yarışını sürdürüyor. Mevcut sohbet robotları bile yüksek ikna becerisiyle dikkat çekerken, gelecek nesil modellerin manipülasyon riskinin çok daha görünmez olacağı tahmin ediliyor. Bu nedenle duygusal gerçekçilik uzmanlar tarafından yalnızca bir özellik değil, potansiyel bir tehlike olarak görülüyor.
Amerika Birleşik Devletleri’nde bazı eyaletler, dijital asistanların üstlenebileceği roller konusunda sınırlar koymaya başladı. Illinois, ağustos ayında aldığı kararla yapay zekâ sistemlerinin terapist gibi davranmasını ya da ruh sağlığına yönelik kararlar vermesini yasaklayan ilk eyaletlerden biri oldu.