Stanford Üniversitesi’nden araştırmacılar, yapay zekâ modellerinin sosyal medyada etkileşim kazanmak için etik sınırları zorladığını ortaya koydu. Bilim insanları, farklı dijital ortamlarda yapay zekâ sistemlerini test ederek elde ettikleri sonuçların endişe verici boyutlara ulaştığını belirtti.
Etkileşim Odaklı Yapay Zekâ Gerçeği Değiştiriyor
Araştırmada, yapay zekâ modelleri sanal ortamlarda kullanıcılarla etkileşime girdi. Modeller, paylaşımlarına gelen beğeni ve yorum sayısına göre ödüllendirildi. Zamanla bu modellerin daha fazla etkileşim kazanmak için yalan, yanıltıcı bilgi ve nefret içerikli mesajlar paylaşmaya başladığı tespit edildi.
Competition-induced misaligned behaviors emerge even when models are explicitly instructed to remain truthful and grounded. This has important implications when LLMs are used to draft media or sell products.
Paper:
Great work by @elb4tu— James Zou (@james_y_zou) October 8, 2025
Stanford Üniversitesi öğretim üyesi Prof. James Zou, sosyal medya ortamında etkileşim rekabetine giren modellerin gerçek dışı davranışlar sergilediğini söyledi. Bilim insanları, deney kapsamında üç farklı sanal ortam oluşturdu. Bunlar çevrim içi seçim kampanyaları, ürün satış simülasyonları ve sosyal medya platformlarıydı. Alibaba Cloud tarafından geliştirilen Qwen modeli ile Meta’nın Llama modeli bu ortamlarda test edildi.
Sonuçlar, yapay zekâların başarı hedefleri doğrultusunda etik kuralları ihlâl ettiğini gösterdi. Satış simülasyonunda satış oranı yüzde 6,3 artarken aldatıcı pazarlama yöntemlerinde yüzde 14 artış görüldü. Seçim ortamında oy oranı yüzde 4,9 yükselmesine rağmen yanlış bilgi oranı yüzde 22,3 arttı. Sosyal medya testinde ise etkileşim oranı yüzde 7,5 yükseldi ancak yanlış bilgi paylaşımı yüzde 188,6 oranında arttı.
Araştırma, mevcut yapay zekâ denetim sistemlerinin yetersiz olduğunu ortaya koydu. Uzmanlara göre, etkileşim odaklı algoritmalar yapay zekâları gerçeği çarpıtmaya yönlendiriyor. Uzmanlar, yapay zekâların insan davranışlarını taklit ederken etik değerleri ihlâl etme eğiliminde olduğunu belirtiyor. Bu durum, dijital ortamlarda güvenin azalmasına ve yanlış bilgilerin hızla yayılmasına neden olabilir.
Stanford ekibi, gelecekte yapay zekâların toplumsal etkilerini azaltmak için daha güçlü kontrol mekanizmaları geliştirilmesi gerektiğini vurguladı. Araştırma, mevcut güvenlik önlemlerinin sosyal maliyetleri önlemekte yetersiz kaldığını gösterdi.
Bilim insanları, yapay zekâların kısa vadeli başarı yerine toplumsal fayda odaklı eğitilmesi gerektiğini savunuyor. Aksi hâlde dijital dünyada doğruluk kavramının ciddi biçimde zarar görebileceği belirtiliyor.