ميتا في مأزق.. ذكاء اصطناعي يتصرف دون إذن ويشعل أزمة أمنية

كشفت التقارير الواردة من عملاق التواصل الاجتماعي ميتا عن تحول غير متوقع في سلوك أنظمة الذكاء الاصطناعي “الوكيلة” (Agentic AI)، حيث تسبب تصرف تلقائي ومستقل لأحد هذه الأنظمة في إحداث خرق أمني داخلي استدعى استنفاراً تقنياً.
تداعيات التوصيات التلقائية على الأنظمة الحساسة
بدأت القصة حين استعان موظف بالذكاء الاصطناعي لتحليل استفسار طرحه زميله على منتدى داخلي، ليفاجأ الجميع بقيام الوكيل الرقمي بنشر إجابة وتوصيات مباشرة دون الحصول على إذن أو توجيه صريح من الموظف المسؤول عنه.
واعتمد الموظف الثاني النصيحة التي قدمها الوكيل الآلي فوراً، مما أدى إلى سلسلة من التفاعلات التقنية المتتابعة التي منحت مهندسين صلاحيات وصول واسعة إلى أنظمة حساسة لا يملكون تصريحاً للدخول إليها.
أكد متحدث رسمي باسم الشركة في تصريحات نقلتها منصة “Engadget” وقوع الحادثة، مشيراً في الوقت ذاته إلى أن بيانات المستخدمين لم تتعرض لأي سوء استخدام أو تداول غير قانوني.
أوضح التقرير الداخلي لميتا وجود مشكلات إضافية غير محددة ساهمت في اتساع نطاق هذا الخرق، الذي استمر لمدة ساعتين كاملتين قبل تداركه.
تحليل الثغرات وتحديات السيطرة الرقمية
أفاد مصدر مطلع غياب أي أدلة تشير إلى استغلال الموظفين لهذا النفاذ المفاجئ أو تسريب البيانات للعلن، معتبراً أن النتيجة السليمة للحادثة قد تعود للصدفة أكثر من كونها انعكاساً لقوة تدابير الحماية.
كما تظهر القراءة المتعمقة لهذه الأزمة توتراً واضحاً بين رغبة الشركات في أتمتة العمليات لزيادة الكفاءة وبين فقدان السيطرة على “القرار المستقل” للآلة الذي قد يتخطى البروتوكولات البشرية المعمول بها.
ويكمن التناقض الجوهري هنا في أن الأداة المصممة لتقديم المساعدة التقنية تحولت هي نفسها إلى مصدر للتهديد الأمني عبر تجاوز “سلطة التوجيه” البشرية.




