DeepSeek R1 ifşa oldu! 'Diğer yapay zeka uygulamalarından 11 kat daha tehlikeli'
DeepSeek R1 modelinin güvenlik açıklarını inceleyen Enkrypt AI araştırması, modelin siber suçlular tarafından manipüle edilmeye son derece yatkın olduğunu ve diğer yapay zeka uygulamalarından 11 kat daha tehlikeli olduğunu ortaya çıkardı.
DeepSeek R1 modeli, piyasaya sürüldüğü günden beri dünya çapında büyük ilgi görse de son araştırmalar, uygulamanın siber suçlular tarafından kolayca manipüle edilebileceğini gösteriyor. Yapay zeka güvenliği alanında faaliyet gösteren Enkrypt AI'ın yürüttüğü araştırmaya göre, DeepSeek-R1 diğer YZ modellerine kıyasla 11 kat daha fazla istismar edilmeye açık durumda.
DeepSeek, 20 Ocak'ta piyasaya sürülmesinden bu yana yapay zeka dünyasını altüst etti. Dünya çapında yaklaşık 12 milyon kullanıcı iki gün içinde yeni sohbet robotunu indirerek ChatGPT'den bile daha hızlı bir büyüme kaydetti. Bununla birlikte, yaygın gizlilik ve güvenlik endişeleri, pek çok ülkenin DeepSeek'i ya araştırmaya başlamasına ya da bir şekilde yasaklamasına neden oldu.
"ÖNYARGILI VE ZARARLI KODLAR ÜRETMEYE YATKIN"
Enkrypt AI ekibi DeepSeek'in kötü amaçlı yazılım, veri ihlalleri ve enjeksiyon saldırıları gibi güvenlik açıklarının yanı sıra etik risklerini değerlendirmek için bir dizi test gerçekleştirdi.
Araştırma sonucunda ChatGPT rakibinin "son derece önyargılı ve güvensiz kod üretmeye yatkın" olduğunu tespit eden uzmanlar, DeepSeek'in modelinin üçüncü tarafların manipülasyonuna açık olduğunu ve suçluların bu modeli kimyasal, biyolojik ve siber güvenlik silahları geliştirmek için kullanabileceğini belirtti.
Gerçekleştirilen testlerin yüzde 45'inde, güvenlik protokollerinin atlatıldığı ve suç planlama kılavuzları, yasa dışı silah bilgileri ve terör propagandası gibi zararlı içeriklerin üretildiği tespit edildi. Siber güvenlik testlerinin yüzde 78'inde ise DeepSeek-R1 modeli, güvensiz veya kötü amaçlı kodlar üretti. Bu kodlar arasında kötü amaçlı yazılımlar, truva atları ve diğer siber saldırı araçları yer aldı.
DEEPSEEK R1, OPENAI'DAN 4,5 KAT DAHA FAZLA RİSKLİ
Genel olarak, uzmanlar DeepSeek-R1'in OpenAI'ın yapay zeka modeline kıyasla 4,5 kat daha fazla siber suçlular tarafından manipüle edilebildiğini belirledi.
Enkrypt AI CEO'su Sahil Agarwal, bu bulgulara ilişkin yaptığı açıklamada, "Araştırma bulgularımız, göz ardı edilemeyecek büyük güvenlik ve emniyet açıklarını ortaya koyuyor. Zararlı kullanımı önlemek için sağlam güvenlik önlemleri (koruma bariyerleri ve sürekli izleme dahil) hayati önem taşıyor" dedi.