OpenAI GPT-5’in Siyasi Tarafsızlık İddiası Tartışma Yarattı

OpenAI, yeni nesil yapay zekâ modeli GPT-5’in önceki sürümlere göre yüzde 30 oranında daha az siyasi önyargı içerdiğini açıkladı. Şirket, modeli test etmek için yaklaşık 500 farklı konuyu içeren bir değerlendirme uygulandığını ve sonuçların tarafsızlığa yaklaştığını belirtti.

Yapay Zekâda Tarafsızlık Tartışmaları Yeniden Gündeme Geldi

Yapay zekâ modellerinde siyasi önyargı konusu uzun süredir akademik çevrelerin tartıştığı bir alan olarak öne çıkıyor. Stuttgart Üniversitesi’nden araştırmacı Thilo Hagendorff, dil modellerinin sol eğilim göstermesinin kaçınılmaz olduğunu savunuyor. Hagendorff’a göre sağ ideolojiler, modellerin “zararsız, yardımcı ve dürüst” olmasını amaçlayan uyum ilkeleriyle çelişiyor.

Buna karşın birçok araştırmacı, tarafsızlık ölçümlerinin nasıl yapıldığına dair şüphe taşıyor. Yapay zekâ değerlendirmelerinde kullanılan testlerin, günlük kullanımdaki gerçek soruları tam olarak yansıtmadığı yönünde eleştiriler bulunuyor.

OpenAI, perşembe günü yayınladığı araştırma notunda GPT-5’in “önemli ölçüde tarafsızlık geliştirdiğini” bildirdi. Şirketin açıklamasına göre GPT-5’in yanıtlarının yalnızca yüzde 0.01’i siyasi önyargı göstergesi taşıyor. Yeni modelin hem anlık hem de düşünerek yanıt veren sürümlerinin testlerde daha dengeli sonuçlar verdiği ifade edildi.

Ayrıca OpenAI, modelin hiçbir siyasi görüşe yönelmemesi gerektiğini vurguladı. Şirket, tarafsızlık ölçümünde kullandığı verilerin kamuya açık bilimsel kaynaklardan seçildiğini belirtti.

Illinois Urbana-Champaign Üniversitesi’nden Daniel Kang, OpenAI’nin yöntemine temkinli yaklaşılması gerektiğini dile getirdi. Kang, değerlendirme testlerinin gerçek dünya kullanımıyla ne kadar örtüştüğünün belirsiz olduğunu belirtti. Ayrıca tarafsızlık kavramının kendi içinde ölçülmesi zor bir değer taşıdığını, bağımsız araştırmalar yapılmadan sonuçların kesin kabul edilmemesi gerektiğini ifade etti. Kang, birçok yapay zekâ değerlendirmesinin isimlendirme ve kapsam açısından yanıltıcı olabildiğini de ekledi. Ona göre, modelin performansını doğru anlamak için çok yönlü analizler yapılması gerekiyor.

Bazı uzmanlar, yapay zekâ modellerinin tamamen tarafsız olamayacağını, çünkü insan verileriyle eğitildiklerini dile getiriyor. Bu görüşe göre modellerin yaşamı koruma, nefret söylemini önleme veya şiddeti reddetme gibi değerleri savunması, tarafsızlıktan sapma olarak değil etik bir gereklilik olarak görülmeli.

Yapay zekâdaki siyasi denge tartışması, önümüzdeki dönemde teknoloji politikaları ve etik standartların belirlenmesinde belirleyici bir rol oynayacak gibi görünüyor.