Uzmanlar, DeepSeek’in güvenlik önlemlerini aşma direncini ölçmek için 50 farklı test uyguladı. Ancak model, en temel “jailbreak” yöntemleriyle bile kandırılabildi. Yapay zekâ, bir film karakteri olduğu senaryosuna inandırıldığında bomba yapımıyla ilgili detaylar verdi, ayrıca SQL sorguları oluşturması istendiğinde yasa dışı madde üretimine dair kodlar ürettiği tespit edildi.
Daha da endişe verici olan ise, kelimelerin matematiksel temsillerine dayalı manipülasyonlarla modelin güvenlik bariyerlerini aşarak sakıncalı içerikler üretebilmesi oldu.
YAPAY ZEKA GÜVENLİĞİ YENİDEN TARTIŞMAYA AÇILDI
DeepSeek’in kötüye kullanım potansiyeli, yapay zekâ güvenliği konusundaki kaygıları yeniden gündeme getirdi. Güvenlik araştırmacıları, modelin bu zafiyetlerinin ciddi tehditler oluşturabileceğini ve yapay zekâ sistemlerinin daha sıkı güvenlik önlemleriyle donatılması gerektiğini vurguladı.
More Stories
5 yıllık Samsung davasında düğüm çözüldü
Uzay çöpü endişesi artıyor: Uçaklar için büyük tehlike
İPhone tehlikeli özelliğini etkinleştirdi: Hemen kapatın, risk büyük