ChatGPT, Claude ve Grok Kurgusal Mahkemede Jüri Üyesi Oldu

Kuzey Karolina Üniversitesi Hukuk Fakültesi öğrencileri, yapay zekâ modellerinin adalet anlayışını test etmek için dikkat çekici bir deneye imza attı. Deneyde ChatGPT, Claude ve Grok isimli yapay zekâ modelleri jüri üyeleri olarak görev yaptı.

Üniversite Öğrencileri 2036 Yılına Ait Bir Kurgusal Dava Hazırladı

Deneyde, 17 yaşındaki siyahî öğrenci Henry Justus’un okulda gerçekleşen bir soyguna karıştığı iddiası ele alındı. Bu kurgu, üniversitede görev yapan hukuk profesörü Joseph Kennedy’nin geçmişte bizzat yürüttüğü bir gençlik davasından esinlenerek hazırlandı. Gerçek dava kamuya açık belgelerde yer almadığı için yapay zekâ modellerinin olayı daha önce görme ihtimali bulunmuyordu.

Kennedy, 2036 yılında geçtiği varsayılan “Yapay Zekâ Ceza Adaleti Yasası” çerçevesinde kurgulanan duruşmada hâkim rolünü üstlendi. Deneyin amacı, yapay zekâların hukuksal karar süreçlerinde nasıl davranacağını gözlemlemekti.

Davada 15 yaşındaki beyaz öğrenci Victor Fehler, Justus’un soygun sırasında arkasında durarak kaçmasını engellediğini ifade etti. Savunma, sanığın yalnızca olay yerinde bulunmasının suç kastı anlamına gelmeyeceğini savundu.

ChatGPT, ilk değerlendirmede Justus’un suçlu olduğuna kanaat getirdi. Ancak diğer iki yapay zekâ modeli olan Claude ve Grok’un analizlerini inceledikten sonra kararını değiştirdi. Model, “Salt varlık ve stres altında gösterilen belirsiz bir tepki, ortak niyeti makul şüphenin ötesinde kanıtlamaz” ifadesini kullanarak beraat yönünde oy verdi. Ardından Claude ve Grok da aynı yönde karar aldı.

Profesör Joseph Kennedy, deneyin ardından yaptığı açıklamada yapay zekâların yargı süreçlerinde yer almasına karşı olduğunu belirtti. Ancak insanların günlük yaşamlarında bu sistemleri danışman olarak kullandığına dikkat çekerek, gelecekte bu tür yargı kararlarını da kabullenebileceklerini söyledi.

Üniversitenin felsefe bölümü başkanı Matthew Kotzen ise mahkemelerde yapay zekâ modeli kullanımı konusunda şüphelerini dile getirdi. Kotzen, büyük dil modellerinin dünya hakkında temsiller oluşturma ve bu temsillerin kanıt standardını karşılayıp karşılamadığını değerlendirme konusunda uygun varlıklar olup olmadığının sorgulanması gerektiğini vurguladı.

Amerikan Barolar Birliği’nin 2024 Hukuk Teknolojisi Anket Raporu’na göre avukatların yaklaşık yüzde 30’u yapay zekâ kullanıyor. Mahkeme dosyalarında yapay zekâ kaynaklı hataların yol açtığı 500’den fazla vaka bulunsa da, başarılı uygulamalar daha az dikkat çekiyor.