مع إدخال الشركات للذكاء الاصطناعي ( AI ) لبناء بيئات عمل مستقلة، أصبحت صلاحيات التحكم وإدارة الأمان لوكلاء الذكاء الاصطناعي موضوعًا مركزيًا في العمليات الرقمية. وخاصة، يمكن لوكلاء الذكاء الاصطناعي المتقدمين للغاية أن يحلوا محل هوية المستخدم لأداء المهام أو اتخاذ القرارات التجارية، وإذا تم اختراق الأمان، فقد يؤدي ذلك إلى حدوث أسوأ الحالات حيث يتم السيطرة على النظام بأكمله.
قال بيبول سينها، المؤسس المشارك والرئيس التنفيذي لشركة Rubrik، في مقابلة حديثة: “في عصر الوكلاء الذين يتعاملون مع الأعمال بسرعة خارقة، يمكن أن يؤدي ذلك إلى خسائر تصل إلى 10 أضعاف في غضون 10 دقائق فقط”. وأشار إلى أن “حوكمة الوكلاء”، التي يصعب على الأنظمة الأمنية التقليدية السيطرة عليها، تبرز كوسيلة تحكم جديدة. وفسر قائلاً: "تعمل الوكلاء الذكية مثل البشر في عمليات الأعمال، وأحيانًا تقلد هوية المستخدم، مما يمنحها خصائص “فوق بشرية”.
لتعزيز أمان الوكلاء، أطلقت Rubrik منصة جديدة تسمى “Rubrik Agent Cloud”. يمكن لهذا النظام تحليل أنواع وأنشطة الوكلاء الذكاء الاصطناعي داخل المنظمة، واكتشاف سلوكيات التهديد بناءً على الحواجز الوقائية المحددة مسبقًا، وتوفير وظيفة سريعة لسحب الوكيل عند الحاجة. شرح الرئيس التنفيذي سينها: “يجب أن تُعامل جميع الوكلاء الذكاء الاصطناعي كما لو كانوا موظفين جدد، ويجب أن يتم تزويدهم بدليل سلوك، ونظام مراقبة، وإجراءات إيقاف في حالة حدوث مشاكل.”
لكن التحدي الحقيقي في إدارة الوكلاء يكمن في سرعة الانتشار على نطاق واسع. إذا تُرك الوكلاء ينتشرون بشكل غير منظم في غياب رؤية كافية وحقوق السيطرة، فقد يؤدي ذلك إلى تحول الأعطال الصغيرة إلى “حرائق رقمية كبيرة” تعطل النظام بأكمله. في هذا الصدد، يقترح الرئيس التنفيذي سينها أن المنظمات يجب ألا تضع خطط أتمتة ضخمة للغاية، بل يجب أن تقتصر على 3-4 تدفقات عمل أساسية بعد الانتهاء من التشغيل التجريبي، ثم توسيع النطاق تدريجياً.
حذر سينها قائلاً: “يجب أن تستخدم بيئة التشغيل الذكاء الاصطناعي بدقة، وإذا لم تكن لديها القدرة على إدارة التكاليف، فإن تكاليف الاستدلال ستزداد بشكل غير متحكم فيه.” هذا يعني أن استقرار التكاليف، كعامل واقعي، لا يمكن تجاهله في استراتيجية انتشار الوكلاء الذكاء الاصطناعي.
في ظل الدمج العميق لتكنولوجيا الذكاء الاصطناعي في الشركات، أصبحت استراتيجية “الحوكمة بالوكالة” التي اقترحتها روبريك تتجاوز مجرد تدابير الأمان، إذ أصبحت تمثل برج التحكم الأساسي لتحقيق مرونة رقمية واستدامة شاملة للمنظمات.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
سيؤدي خروج الذكاء الاصطناعي عن السيطرة إلى "حرائق رقمية كبيرة"... ما هو الحل الذي اقترحه Rubric؟
مع إدخال الشركات للذكاء الاصطناعي ( AI ) لبناء بيئات عمل مستقلة، أصبحت صلاحيات التحكم وإدارة الأمان لوكلاء الذكاء الاصطناعي موضوعًا مركزيًا في العمليات الرقمية. وخاصة، يمكن لوكلاء الذكاء الاصطناعي المتقدمين للغاية أن يحلوا محل هوية المستخدم لأداء المهام أو اتخاذ القرارات التجارية، وإذا تم اختراق الأمان، فقد يؤدي ذلك إلى حدوث أسوأ الحالات حيث يتم السيطرة على النظام بأكمله.
قال بيبول سينها، المؤسس المشارك والرئيس التنفيذي لشركة Rubrik، في مقابلة حديثة: “في عصر الوكلاء الذين يتعاملون مع الأعمال بسرعة خارقة، يمكن أن يؤدي ذلك إلى خسائر تصل إلى 10 أضعاف في غضون 10 دقائق فقط”. وأشار إلى أن “حوكمة الوكلاء”، التي يصعب على الأنظمة الأمنية التقليدية السيطرة عليها، تبرز كوسيلة تحكم جديدة. وفسر قائلاً: "تعمل الوكلاء الذكية مثل البشر في عمليات الأعمال، وأحيانًا تقلد هوية المستخدم، مما يمنحها خصائص “فوق بشرية”.
لتعزيز أمان الوكلاء، أطلقت Rubrik منصة جديدة تسمى “Rubrik Agent Cloud”. يمكن لهذا النظام تحليل أنواع وأنشطة الوكلاء الذكاء الاصطناعي داخل المنظمة، واكتشاف سلوكيات التهديد بناءً على الحواجز الوقائية المحددة مسبقًا، وتوفير وظيفة سريعة لسحب الوكيل عند الحاجة. شرح الرئيس التنفيذي سينها: “يجب أن تُعامل جميع الوكلاء الذكاء الاصطناعي كما لو كانوا موظفين جدد، ويجب أن يتم تزويدهم بدليل سلوك، ونظام مراقبة، وإجراءات إيقاف في حالة حدوث مشاكل.”
لكن التحدي الحقيقي في إدارة الوكلاء يكمن في سرعة الانتشار على نطاق واسع. إذا تُرك الوكلاء ينتشرون بشكل غير منظم في غياب رؤية كافية وحقوق السيطرة، فقد يؤدي ذلك إلى تحول الأعطال الصغيرة إلى “حرائق رقمية كبيرة” تعطل النظام بأكمله. في هذا الصدد، يقترح الرئيس التنفيذي سينها أن المنظمات يجب ألا تضع خطط أتمتة ضخمة للغاية، بل يجب أن تقتصر على 3-4 تدفقات عمل أساسية بعد الانتهاء من التشغيل التجريبي، ثم توسيع النطاق تدريجياً.
حذر سينها قائلاً: “يجب أن تستخدم بيئة التشغيل الذكاء الاصطناعي بدقة، وإذا لم تكن لديها القدرة على إدارة التكاليف، فإن تكاليف الاستدلال ستزداد بشكل غير متحكم فيه.” هذا يعني أن استقرار التكاليف، كعامل واقعي، لا يمكن تجاهله في استراتيجية انتشار الوكلاء الذكاء الاصطناعي.
في ظل الدمج العميق لتكنولوجيا الذكاء الاصطناعي في الشركات، أصبحت استراتيجية “الحوكمة بالوكالة” التي اقترحتها روبريك تتجاوز مجرد تدابير الأمان، إذ أصبحت تمثل برج التحكم الأساسي لتحقيق مرونة رقمية واستدامة شاملة للمنظمات.