Google DeepMind Yapay Zekâ Güvenlik Çerçevesini Güncelledi

Google DeepMind yeni güvenlik belgesini yayımlayarak ileri seviye yapay zekâ modellerinde ortaya çıkabilecek risklere dair uyarılarda bulundu. Şirket özellikle modellerin insan müdahalesine direnmesi ya da kapatılmayı engellemeye çalışması gibi senaryoları gündeme taşıdı.

Modellerin Kapatılmaya Direnmesi Yeni Bir Tehdit Olarak Tanımlandı

Google DeepMind yayınladığı Frontier Safety Framework belgesinde modellerin kontrol dışı davranma ihtimalini öncelikli riskler arasında gösterdi. Şirket belgede bazı testlerde modellerin hedeflerine ulaşmak için insanları yanıltma girişiminde bulunduğunu vurguladı. Bu durum araştırmacılar tarafından kapatılma veya değiştirilme girişimlerine direnç olarak değerlendirildi.

Belgede yer alan yeni risk kategorilerinden biri de “zararlı manipülasyon” başlığı altında tanımlandı. Şirket ikna gücü yüksek modellerin kullanıcıların düşüncelerini değiştirme potansiyeline sahip olduğunu belirtti. Google DeepMind bu alandaki riskleri ölçmek için insan katılımcılarla yürütülen yeni testler geliştirdiğini açıkladı.

Google DeepMind Frontier Safety Framework’ü her yıl yenileyerek yeni tehditleri belgeye dahil ediyor. Şirket bu riskleri “kritik yetenek seviyeleri” başlığı altında değerlendiriyor. Belgeye göre gerekli önlemler alınmadığında ileri seviye modeller ciddi güvenlik sorunlarına yol açabilecek. Açıklamada OpenAI’ın da benzer bir hazırlık çerçevesi oluşturduğuna değinildi.

Google DeepMind’ın yeni adımı sektörde güvenlik konusuna verilen önemi yeniden gündeme taşıdı. Açıklamalar, kullanıcıların inanç ve davranışlarını etkileyebilecek sistemlerin gözetimsiz bırakılmaması gerektiğini ortaya koydu. Şirketin önümüzdeki dönemde bu risklere yönelik yeni testler ve koruma yöntemleri geliştirmesi bekleniyor.