أطلقت شركة OpenAI برنامج مكافآت الثغرات الأمنية الجديد للسلامة لمواجهة المخاطر الناشئة في الذكاء الاصطناعي. أعلن عن ذلك في 26 مارس 2026، وأوردته Cointelegraph، ويركز المبادرة على كيفية إساءة استخدام الناس لنظم الذكاء الاصطناعي. بدلاً من التركيز فقط على العيوب التقنية، تحوّل OpenAI اهتمامه نحو الأضرار الواقعية. يعكس هذا التحرك ضغطًا متزايدًا على شركات الذكاء الاصطناعي للعمل بمسؤولية مع تزايد قوة أدواتها وانتشار استخدامها.
تعاونت OpenAI مع Bugcrowd لإدارة البرنامج. تدعو الشركة القراصنة الأخلاقيين والباحثين والمحللين لاختبار أنظمتها. ومع ذلك، يتجاوز هذا البرنامج الاختبارات الأمنية التقليدية. يمكن للمشاركين الإبلاغ عن قضايا مثل حقن الأوامر وسوء استخدام الوكيل، مما قد يؤثر على سلوك الذكاء الاصطناعي بشكل غير متوقع. تريد OpenAI فهم كيف يمكن أن تؤدي هذه الأفعال إلى نتائج ضارة. من خلال ذلك، تهدف الشركة إلى البقاء في مقدمة التهديدات المحتملة.
تسمح OpenAI بتقديم تقارير لا تتعلق بوجود ثغرات تقنية واضحة. يميز هذا البرنامج عن برامج مكافآت الثغرات التقليدية. يمكن للباحثين الإبلاغ عن سيناريوهات ينتج عنها ردود غير آمنة أو ضارة من الذكاء الاصطناعي، ويجب عليهم تقديم أدلة واضحة على الخطر. بالإضافة إلى ذلك، يشجع هذا النهج على تحليل أعمق لسلوك الذكاء الاصطناعي. ومع ذلك، لا تقبل OpenAI محاولات الاختراق البسيطة. تريد الشركة نتائج ذات معنى، وليس استغلالات سطحية. كما تخطط للتعامل مع مخاطر حساسة، مثل التهديدات البيولوجية، من خلال حملات خاصة.
أدى الإعلان إلى ردود فعل متباينة، حيث تلقت الشركة الثناء والانتقادات على حد سواء. يعتقد بعض الخبراء أن OpenAI تتخذ خطوة مهمة نحو الشفافية، ويرون أن البرنامج وسيلة لمشاركة المجتمع الأوسع في تحسين سلامة الذكاء الاصطناعي. بينما يشكك آخرون في دوافع الشركة، ويخشى البعض أن لا تعالج هذه البرامج القضايا الأخلاقية العميقة، خاصة فيما يتعلق بكيفية إدارة البيانات والمسؤولية. تبرز هذه النقاشات التوترات المستمرة في صناعة الذكاء الاصطناعي.
تُظهر المبادرة الجديدة لـ OpenAI كيف يتطور القطاع. أصبح سلامة الذكاء الاصطناعي تشمل المخاطر التقنية والاجتماعية على حد سواء. من خلال فتح أنظمته للمراجعة الخارجية، تشجع OpenAI على التعاون، مما قد يؤدي إلى وضع ضوابط أفضل وزيادة الثقة. في الوقت نفسه، لا تحل هذه المبادرة جميع القضايا، وتظل الأسئلة حول التنظيم والأثر طويل المدى قائمة. ومع ذلك، أظهرت OpenAI أنها تدرك أهمية الأمر، ومع استمرار نمو الذكاء الاصطناعي، ستلعب جهود السلامة الاستباقية دورًا حاسمًا في تشكيل مستقبله.