يعالج باحثون في جامعة كاليفورنيا، ريفرسايد، مشكلة ضعف الأمان في نماذج الذكاء الاصطناعي مفتوحة المصدر عند تكييفها مع الأجهزة الأصغر حجمًا.
مع تعديل هذه الأنظمة للعمل بكفاءة على الهواتف والسيارات وغيرها من الأجهزة منخفضة الطاقة، قد تفقد الحماية المصممة لمنعها من إنتاج مواد ضارة أو خطرة.
درس فريق جامعة كاليفورنيا، ريفرسايد، ما يحدث عند تغيير طبقة الخروج في النموذج من وضعها الافتراضي، بحسب تقرير نشره موقع "techradar" واطلعت عليه "العربية Business".
أظهرت نتائجهم التي عُرضت في المؤتمر الدولي للتعلم الآلي في فانكوفر، كندا، أن حواجز السلامة تضعف بمجرد تغيير نقطة الخروج، حتى لو تم تدريب النموذج الأصلي على عدم تقديم معلومات ضارة.
سبب تعديل النماذج بهذه الطريقة بسيط، فالخروج مبكرًا يجعل الاستدلال أسرع وأكثر كفاءة، نظرًا لأن النظام يتخطى الطبقات.