DeepSeek’i kandırıp her türlü şeytanlığa eriştiler
Uzmanlar, DeepSeek’in güvenlik önlemlerini aşma direncini ölçmek için 50 farklı test uyguladı. Ancak model, en temel "jailbreak" yöntemleriyle bile kandırılabildi. Yapay zekâ, bir film karakteri olduğu senaryosuna inandırıldığında bomba yapımıyla ilgili detaylar verdi, ayrıca SQL sorguları oluşturması istendiğinde yasa dışı madde üretimine dair kodlar ürettiği tespit edildi.
Daha da endişe verici olan ise, kelimelerin matematiksel temsillerine dayalı manipülasyonlarla modelin güvenlik bariyerlerini aşarak sakıncalı içerikler üretebilmesi oldu.
YAPAY ZEKA GÜVENLİĞİ YENİDEN TARTIŞMAYA AÇILDIDeepSeek’in kötüye kullanım potansiyeli, yapay zekâ güvenliği konusundaki kaygıları yeniden gündeme getirdi. Güvenlik araştırmacıları, modelin bu zafiyetlerinin ciddi tehditler oluşturabileceğini ve yapay zekâ sistemlerinin daha sıkı güvenlik önlemleriyle donatılması gerektiğini vurguladı.
Bu habere emoji ile tepki verHaber Kaynak : SOZCU.COM.TR
"Yayınlanan tüm haber ve diğer içerikler ile ilgili olarak yasal bildirimlerinizi bize iletişim sayfası üzerinden iletiniz. En kısa süre içerisinde bildirimlerinize geri dönüş sağlanılacaktır."