“ترميز الڤايب” يتكاثر، لكن الخبراء يحذرون من أن الأدوات التقليدية تشكل مخاطر أمنية وسرية للشفرات المؤسسية، مما يبرز الحاجة إلى حلول “ذكاء اصطناعي سري” مدعومة من الأجهزة ومشفرة.
في الأشهر الأخيرة، اكتسبت “ترميز الڤايب” — وهو سير عمل يعتمد على الذكاء الاصطناعي حيث يستفيد المطورون من نماذج اللغة الكبيرة (LLMs) وأدوات الوكيل لإنشاء وتحسين البرمجيات — زخمًا. وفي الوقت نفسه، أظهرت تقارير صناعية متعددة أن على الرغم من أن الشفرات المولدة بواسطة الذكاء الاصطناعي توفر سرعة وراحة، إلا أنها غالبًا ما تقدم مخاطر أمنية وسلسلة إمداد خطيرة.
وجدت أبحاث شركة Veracode أن ما يقرب من نصف الشفرات التي تنتجها نماذج اللغة الكبيرة تحتوي على ثغرات حرجة، حيث غالبًا ما تنتج نماذج الذكاء الاصطناعي تطبيقات غير آمنة وتتجاهل قضايا مثل عيوب الحقن أو ضعف المصادقة إلا إذا تم تحفيزها بشكل صريح. كما أشار دراسة أكاديمية حديثة إلى أن “مهارات” الذكاء الاصطناعي المعيارية في أنظمة الوكيل يمكن أن تحمل ثغرات قد تمكن من تصعيد الامتيازات أو كشف سلاسل إمداد البرمجيات.
إلى جانب المخرجات غير الآمنة، هناك خطر سرية منهجي غالبًا ما يُغفل عنه. تقوم مساعدات الترميز بالذكاء الاصطناعي الحالية بمعالجة الشفرات الداخلية الحساسة وحقوق الملكية الفكرية ضمن بيئات سحابية مشتركة، حيث قد يصل المزودون أو المشغلون إلى البيانات أثناء الاستنتاج. وهذا يثير مخاوف من كشف الشفرات الإنتاجية المملوكة على نطاق واسع، وهو مشكلة كبيرة للمطورين الأفراد والمؤسسات الكبيرة.
ماذا يحدث للشفرات المؤسسية الحساسة في مساعدات الترميز بالذكاء الاصطناعي، ولماذا هو خطير؟
معظم أدوات الترميز الحالية يمكنها حماية البيانات إلى مستوى معين فقط. عادةً ما يتم تشفير الشفرة المؤسسية أثناء إرسالها إلى خوادم المزود، غالبًا عبر TLS. ولكن بمجرد وصول الشفرة إلى تلك الخوادم، يتم فك تشفيرها في الذاكرة حتى يتمكن النموذج من قراءتها ومعالجتها. عند تلك النقطة، تظهر تفاصيل حساسة مثل المنطق المملوك، وواجهات برمجة التطبيقات الداخلية، وتفاصيل الأمان بشكل نص واضح في النظام. وهنا يكمن الخطر.
قد تمر الشفرة عبر سجلات داخلية، أو ذاكرة مؤقتة، أو أنظمة تصحيح أخطاء يصعب على العملاء رؤيتها أو تدقيقها أثناء فك التشفير. حتى لو ضمن المزود عدم حفظ البيانات، فإن التعرض لا يزال يحدث أثناء المعالجة، وهذه النافذة القصيرة تكفي لإنشاء مناطق عمياء. بالنسبة للمؤسسات، يخلق ذلك خطرًا محتملاً يعرض الشفرة الحساسة للاستخدام السيئ دون سيطرة ملكية.
لماذا تعتقد أن أدوات الترميز بالذكاء الاصطناعي السائدة غير آمنة أساسًا لتطوير المؤسسات؟
معظم أدوات الترميز بالذكاء الاصطناعي الشائعة ليست مبنية على نماذج مخاطر المؤسسات؛ فهي تركز فقط على تحسين السرعة والراحة لأنها مدربة بشكل كبير على مستودعات عامة تحتوي على ثغرات معروفة، وأنماط قديمة، وإعدادات غير آمنة. ونتيجة لذلك، غالبًا ما تظهر الشفرات التي تنتجها ثغرات إلا إذا خضعت لفحص وتصحيح دقيق.
الأهم من ذلك، أن هذه الأدوات تعمل بدون هياكل حوكمة رسمية، لذلك فهي لا تفرض معايير أمن داخلية في المرحلة المبكرة، وهذا يخلق فجوة بين كيفية برمجة البرمجيات وكيفية تدقيقها أو حمايتها لاحقًا. هذا يؤدي في النهاية إلى أن تتعود الفرق على العمل مع مخرجات بالكاد يفهمونها، بينما تتزايد أوجه القصور الأمنية بصمت. هذا الجمع بين نقص الشفافية والتداعيات التقنية يجعل الدعم القياسي شبه مستحيل للمنظمات التي تعمل في مجالات تتطلب أمانًا أولاً.
إذا لم يخزن المزودون أو يتدربوا على شفرة العملاء، فلماذا لا يكفي ذلك، وما الضمانات التقنية اللازمة؟
ضمان السياسات يختلف تمامًا عن الضمانات التقنية. لا تزال بيانات المستخدم تُفك تشفير وتُعالج أثناء الحساب، حتى عندما يضمن المزود عدم الاحتفاظ بها. يمكن أن تخلق السجلات المؤقتة أثناء عمليات التصحيح مسارات تسرب لا يمكن للسياسات منعها أو إثباتها لضمان السلامة. من منظور المخاطر، الثقة بدون تحقق ليست كافية.
يجب أن تركز الشركات بدلاً من ذلك على وعود يمكن تأسيسها على مستوى البنية التحتية. يشمل ذلك بيئات الحوسبة السرية حيث لا يتم تشفير الشفرة فقط أثناء النقل، بل وأيضًا أثناء الاستخدام. مثال جيد هو بيئة التنفيذ الموثوقة المدعومة من الأجهزة، التي تخلق بيئة مشفرة حيث حتى مشغل البنية التحتية لا يمكنه الوصول إلى الشفرة الحساسة. يعالج النموذج البيانات في هذه البيئة الآمنة، وتسمح الشهادة عن بُعد للمؤسسات بالتحقق cryptographically من تفعيل تدابير السلامة هذه.
يجب أن تكون هذه الآليات متطلبًا أساسيًا، لأنها تحول الخصوصية إلى خاصية قابلة للقياس وليس مجرد وعد.
هل تشغيل الذكاء الاصطناعي في الموقع أو في سحابة خاصة يحل تمامًا مخاطر السرية؟
تشغيل الذكاء الاصطناعي في سحابة خاصة يساعد على تقليل بعض المخاطر، لكنه لا يحل المشكلة. لا تزال البيانات مرئية وعرضة للخطر أثناء معالجتها إلا إذا تم وضع حماية إضافية. لذلك، فإن الوصول الداخلي، والإعداد السيئ، والتنقل داخل الشبكة يمكن أن يؤدي إلى تسريبات.
سلوك النموذج هو مصدر قلق آخر. على الرغم من أن الأنظمة الخاصة تسجل المدخلات أو تخزن البيانات للاختبار، إلا أن هذه المخاطر تظل قائمة بدون عزل قوي. لا تزال الفرق التجارية بحاجة إلى معالجة مشفرة. تنفيذ التحكم في الوصول المستند إلى الأجهزة وتحديد حدود واضحة لاستخدام البيانات ضروريان لحماية البيانات بشكل آمن. وإلا، فإنهم يتجنبون فقط المخاطر ولا يحلونها.
ماذا يعني “الذكاء الاصطناعي السري” فعليًا لأدوات الترميز؟
يشير الذكاء الاصطناعي السري إلى الأنظمة التي تدير أمان البيانات أثناء الحساب. يسمح بمعالجة البيانات في بيئة معزولة، مثل بيئات التنفيذ الموثوقة المدعومة من الأجهزة، ولكن بشكل واضح حتى يتمكن النموذج من العمل عليها. يضمن فرض العزل المادي أنه لا يمكن الوصول إليها من قبل مشغل المنصة، أو نظام التشغيل المضيف، أو أي طرف خارجي، مع توفير خصوصية يمكن التحقق منها cryptographically، دون التأثير على القدرة الوظيفية للذكاء الاصطناعي.
هذا يغير تمامًا نموذج الثقة لمنصات الترميز، حيث يسمح للمطورين باستخدام الذكاء الاصطناعي دون إرسال المنطق المملوك إلى أنظمة مشتركة أو عامة. كما يعزز المساءلة الواضحة لأن حدود الوصول مبنية بواسطة الأجهزة بدلاً من السياسات. تتقدم بعض التقنيات أكثر من ذلك بدمج الحساب المشفر مع تتبع تاريخي، بحيث يمكن التحقق من المخرجات دون الكشف عن المدخلات.
على الرغم من أن المصطلح يبدو مجرد تجريد، فإن الدلالة بسيطة: لم يعد من الضروري أن تضحي الشركات بالسرية من أجل الفعالية عند استخدام الذكاء الاصطناعي.
ما هي المقايضات أو القيود الحالية لاستخدام الذكاء الاصطناعي السري؟
أكبر مقايضة اليوم هي السرعة. قد تواجه أنظمة الذكاء الاصطناعي المعزولة في بيئات التنفيذ الموثوقة بعض التأخير مقارنة بالبنى غير المحمية، ببساطة نتيجة لتشفير الذاكرة على مستوى الأجهزة والتحقق من الشهادة. الخبر السار هو أن الأجهزة الأحدث تقلل من هذه الفجوة مع مرور الوقت.
أيضًا، يتطلب الأمر إعدادًا أكثر دقة وتخطيطًا صحيحًا، حيث يجب أن تعمل الأنظمة في بيئات أكثر ضيقًا. يجب أيضًا مراعاة التكاليف. غالبًا ما يحتاج الذكاء الاصطناعي السري إلى أجهزة خاصة — مثل شرائح NVIDIA H100 وH200، على سبيل المثال — وأدوات، مما قد يرفع التكاليف الأولية. لكن يجب موازنة التكاليف مع الضرر المحتمل الناتج عن تسرب الشفرات أو عدم الامتثال للوائح.
الذكاء الاصطناعي السري ليس بعد متطلبًا نظاميًا عالميًا، لذا ينبغي للفرق استخدامه حيث تكون الخصوصية والمساءلة أكثر أهمية. ستُحل العديد من هذه القيود مع الوقت.
هل تتوقع أن تفرض الجهات التنظيمية أو المعايير قريبًا على أدوات الذكاء الاصطناعي أن تظل جميع البيانات مشفرة أثناء المعالجة؟
تؤكد الأطر التنظيمية مثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي وإطار عمل إدارة مخاطر الذكاء الاصطناعي من NIST في الولايات المتحدة على إدارة المخاطر، وحماية البيانات، والمساءلة للأنظمة عالية التأثير. مع تطور هذه الأطر، يصبح من الصعب تبرير الأنظمة التي تكشف البيانات الحساسة بشكل متعمد بموجب توقعات الحوكمة المعتمدة.
كما أن مجموعات المعايير تضع الأسس من خلال وضع قواعد أوضح لكيفية تعامل الذكاء الاصطناعي مع البيانات أثناء الاستخدام. قد تتفاوت سرعة تطبيق هذه القواعد عبر المناطق. ومع ذلك، يجب أن تتوقع الشركات مزيدًا من الضغط على الأنظمة التي تعالج البيانات بنص واضح. وهكذا، فإن الذكاء الاصطناعي السري أقل عن التخمين بالمستقبل وأكثر عن التوافق مع الاتجاهات التنظيمية الحالية.
كيف تبدو “الترميز المسؤول” حاليًا للمطورين وقادة تكنولوجيا المعلومات؟
الترميز المسؤول ببساطة هو أن تظل مسؤولًا عن كل سطر من الشفرة، من مراجعة اقتراحات الذكاء الاصطناعي إلى التحقق من التداعيات الأمنية، بالإضافة إلى النظر في كل حالة حافة في كل برنامج. بالنسبة للمنظمات، يتطلب ذلك تعريفًا واضحًا للسياسات بشأن الموافقة على أدوات معينة وطرق آمنة للشفرات الحساسة، مع ضمان فهم الفرق لكل من نقاط القوة والقيود في مساعدة الذكاء الاصطناعي.
بالنسبة للجهات التنظيمية وقادة الصناعة، يتطلب الأمر تصميم قواعد واضحة لتمكين الفرق من التعرف بسهولة على الأدوات المسموح بها وأين يمكن استخدامها. يجب أن يُسمح فقط للبيانات الحساسة بالدخول إلى الأنظمة التي تلتزم بمتطلبات الخصوصية والامتثال، مع تدريب المشغلين والمستخدمين على فهم قوة الذكاء الاصطناعي وقيوده. الذكاء الاصطناعي يوفر الجهد والوقت عند استخدامه بشكل جيد، لكنه يحمل مخاطر مكلفة إذا استُخدم بشكل غير مسؤول.
مع النظر إلى المستقبل، كيف تتصور تطور مساعدات الترميز بالذكاء الاصطناعي فيما يتعلق بالأمان؟
ستتطور أدوات الترميز بالذكاء الاصطناعي من كونها مجرد توصيات إلى التحقق من الشفرة أثناء كتابتها مع الالتزام بالقواعد، والمكتبات المصرح بها، والقيود الأمنية في الوقت الحقيقي.
سيتم أيضًا دمج الأمان بشكل أعمق في كيفية تشغيل هذه الأدوات من خلال تصميم تنفيذ مشفر وسجلات قرارات واضحة كميزات عادية. مع مرور الوقت، ستتحول مساعدات الذكاء الاصطناعي من مخاطر إلى أدوات دعم للتطوير الآمن. ستكون الأنظمة الأفضل هي التي تجمع بين السرعة والسيطرة. وسيتم تحديد الثقة بناءً على كيفية عمل الأدوات، وليس بوعد من المطورين.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
من المخاطر إلى المسؤولية: أحمد شديد حول بناء سير عمل تطوير مدعوم بالذكاء الاصطناعي آمن
ملخص سريع
“ترميز الڤايب” يتكاثر، لكن الخبراء يحذرون من أن الأدوات التقليدية تشكل مخاطر أمنية وسرية للشفرات المؤسسية، مما يبرز الحاجة إلى حلول “ذكاء اصطناعي سري” مدعومة من الأجهزة ومشفرة.
في الأشهر الأخيرة، اكتسبت “ترميز الڤايب” — وهو سير عمل يعتمد على الذكاء الاصطناعي حيث يستفيد المطورون من نماذج اللغة الكبيرة (LLMs) وأدوات الوكيل لإنشاء وتحسين البرمجيات — زخمًا. وفي الوقت نفسه، أظهرت تقارير صناعية متعددة أن على الرغم من أن الشفرات المولدة بواسطة الذكاء الاصطناعي توفر سرعة وراحة، إلا أنها غالبًا ما تقدم مخاطر أمنية وسلسلة إمداد خطيرة.
وجدت أبحاث شركة Veracode أن ما يقرب من نصف الشفرات التي تنتجها نماذج اللغة الكبيرة تحتوي على ثغرات حرجة، حيث غالبًا ما تنتج نماذج الذكاء الاصطناعي تطبيقات غير آمنة وتتجاهل قضايا مثل عيوب الحقن أو ضعف المصادقة إلا إذا تم تحفيزها بشكل صريح. كما أشار دراسة أكاديمية حديثة إلى أن “مهارات” الذكاء الاصطناعي المعيارية في أنظمة الوكيل يمكن أن تحمل ثغرات قد تمكن من تصعيد الامتيازات أو كشف سلاسل إمداد البرمجيات.
إلى جانب المخرجات غير الآمنة، هناك خطر سرية منهجي غالبًا ما يُغفل عنه. تقوم مساعدات الترميز بالذكاء الاصطناعي الحالية بمعالجة الشفرات الداخلية الحساسة وحقوق الملكية الفكرية ضمن بيئات سحابية مشتركة، حيث قد يصل المزودون أو المشغلون إلى البيانات أثناء الاستنتاج. وهذا يثير مخاوف من كشف الشفرات الإنتاجية المملوكة على نطاق واسع، وهو مشكلة كبيرة للمطورين الأفراد والمؤسسات الكبيرة.
ماذا يحدث للشفرات المؤسسية الحساسة في مساعدات الترميز بالذكاء الاصطناعي، ولماذا هو خطير؟
معظم أدوات الترميز الحالية يمكنها حماية البيانات إلى مستوى معين فقط. عادةً ما يتم تشفير الشفرة المؤسسية أثناء إرسالها إلى خوادم المزود، غالبًا عبر TLS. ولكن بمجرد وصول الشفرة إلى تلك الخوادم، يتم فك تشفيرها في الذاكرة حتى يتمكن النموذج من قراءتها ومعالجتها. عند تلك النقطة، تظهر تفاصيل حساسة مثل المنطق المملوك، وواجهات برمجة التطبيقات الداخلية، وتفاصيل الأمان بشكل نص واضح في النظام. وهنا يكمن الخطر.
لماذا تعتقد أن أدوات الترميز بالذكاء الاصطناعي السائدة غير آمنة أساسًا لتطوير المؤسسات؟
معظم أدوات الترميز بالذكاء الاصطناعي الشائعة ليست مبنية على نماذج مخاطر المؤسسات؛ فهي تركز فقط على تحسين السرعة والراحة لأنها مدربة بشكل كبير على مستودعات عامة تحتوي على ثغرات معروفة، وأنماط قديمة، وإعدادات غير آمنة. ونتيجة لذلك، غالبًا ما تظهر الشفرات التي تنتجها ثغرات إلا إذا خضعت لفحص وتصحيح دقيق.
الأهم من ذلك، أن هذه الأدوات تعمل بدون هياكل حوكمة رسمية، لذلك فهي لا تفرض معايير أمن داخلية في المرحلة المبكرة، وهذا يخلق فجوة بين كيفية برمجة البرمجيات وكيفية تدقيقها أو حمايتها لاحقًا. هذا يؤدي في النهاية إلى أن تتعود الفرق على العمل مع مخرجات بالكاد يفهمونها، بينما تتزايد أوجه القصور الأمنية بصمت. هذا الجمع بين نقص الشفافية والتداعيات التقنية يجعل الدعم القياسي شبه مستحيل للمنظمات التي تعمل في مجالات تتطلب أمانًا أولاً.
إذا لم يخزن المزودون أو يتدربوا على شفرة العملاء، فلماذا لا يكفي ذلك، وما الضمانات التقنية اللازمة؟
ضمان السياسات يختلف تمامًا عن الضمانات التقنية. لا تزال بيانات المستخدم تُفك تشفير وتُعالج أثناء الحساب، حتى عندما يضمن المزود عدم الاحتفاظ بها. يمكن أن تخلق السجلات المؤقتة أثناء عمليات التصحيح مسارات تسرب لا يمكن للسياسات منعها أو إثباتها لضمان السلامة. من منظور المخاطر، الثقة بدون تحقق ليست كافية.
يجب أن تركز الشركات بدلاً من ذلك على وعود يمكن تأسيسها على مستوى البنية التحتية. يشمل ذلك بيئات الحوسبة السرية حيث لا يتم تشفير الشفرة فقط أثناء النقل، بل وأيضًا أثناء الاستخدام. مثال جيد هو بيئة التنفيذ الموثوقة المدعومة من الأجهزة، التي تخلق بيئة مشفرة حيث حتى مشغل البنية التحتية لا يمكنه الوصول إلى الشفرة الحساسة. يعالج النموذج البيانات في هذه البيئة الآمنة، وتسمح الشهادة عن بُعد للمؤسسات بالتحقق cryptographically من تفعيل تدابير السلامة هذه.
يجب أن تكون هذه الآليات متطلبًا أساسيًا، لأنها تحول الخصوصية إلى خاصية قابلة للقياس وليس مجرد وعد.
هل تشغيل الذكاء الاصطناعي في الموقع أو في سحابة خاصة يحل تمامًا مخاطر السرية؟
تشغيل الذكاء الاصطناعي في سحابة خاصة يساعد على تقليل بعض المخاطر، لكنه لا يحل المشكلة. لا تزال البيانات مرئية وعرضة للخطر أثناء معالجتها إلا إذا تم وضع حماية إضافية. لذلك، فإن الوصول الداخلي، والإعداد السيئ، والتنقل داخل الشبكة يمكن أن يؤدي إلى تسريبات.
سلوك النموذج هو مصدر قلق آخر. على الرغم من أن الأنظمة الخاصة تسجل المدخلات أو تخزن البيانات للاختبار، إلا أن هذه المخاطر تظل قائمة بدون عزل قوي. لا تزال الفرق التجارية بحاجة إلى معالجة مشفرة. تنفيذ التحكم في الوصول المستند إلى الأجهزة وتحديد حدود واضحة لاستخدام البيانات ضروريان لحماية البيانات بشكل آمن. وإلا، فإنهم يتجنبون فقط المخاطر ولا يحلونها.
ماذا يعني “الذكاء الاصطناعي السري” فعليًا لأدوات الترميز؟
يشير الذكاء الاصطناعي السري إلى الأنظمة التي تدير أمان البيانات أثناء الحساب. يسمح بمعالجة البيانات في بيئة معزولة، مثل بيئات التنفيذ الموثوقة المدعومة من الأجهزة، ولكن بشكل واضح حتى يتمكن النموذج من العمل عليها. يضمن فرض العزل المادي أنه لا يمكن الوصول إليها من قبل مشغل المنصة، أو نظام التشغيل المضيف، أو أي طرف خارجي، مع توفير خصوصية يمكن التحقق منها cryptographically، دون التأثير على القدرة الوظيفية للذكاء الاصطناعي.
هذا يغير تمامًا نموذج الثقة لمنصات الترميز، حيث يسمح للمطورين باستخدام الذكاء الاصطناعي دون إرسال المنطق المملوك إلى أنظمة مشتركة أو عامة. كما يعزز المساءلة الواضحة لأن حدود الوصول مبنية بواسطة الأجهزة بدلاً من السياسات. تتقدم بعض التقنيات أكثر من ذلك بدمج الحساب المشفر مع تتبع تاريخي، بحيث يمكن التحقق من المخرجات دون الكشف عن المدخلات.
على الرغم من أن المصطلح يبدو مجرد تجريد، فإن الدلالة بسيطة: لم يعد من الضروري أن تضحي الشركات بالسرية من أجل الفعالية عند استخدام الذكاء الاصطناعي.
ما هي المقايضات أو القيود الحالية لاستخدام الذكاء الاصطناعي السري؟
أكبر مقايضة اليوم هي السرعة. قد تواجه أنظمة الذكاء الاصطناعي المعزولة في بيئات التنفيذ الموثوقة بعض التأخير مقارنة بالبنى غير المحمية، ببساطة نتيجة لتشفير الذاكرة على مستوى الأجهزة والتحقق من الشهادة. الخبر السار هو أن الأجهزة الأحدث تقلل من هذه الفجوة مع مرور الوقت.
أيضًا، يتطلب الأمر إعدادًا أكثر دقة وتخطيطًا صحيحًا، حيث يجب أن تعمل الأنظمة في بيئات أكثر ضيقًا. يجب أيضًا مراعاة التكاليف. غالبًا ما يحتاج الذكاء الاصطناعي السري إلى أجهزة خاصة — مثل شرائح NVIDIA H100 وH200، على سبيل المثال — وأدوات، مما قد يرفع التكاليف الأولية. لكن يجب موازنة التكاليف مع الضرر المحتمل الناتج عن تسرب الشفرات أو عدم الامتثال للوائح.
الذكاء الاصطناعي السري ليس بعد متطلبًا نظاميًا عالميًا، لذا ينبغي للفرق استخدامه حيث تكون الخصوصية والمساءلة أكثر أهمية. ستُحل العديد من هذه القيود مع الوقت.
هل تتوقع أن تفرض الجهات التنظيمية أو المعايير قريبًا على أدوات الذكاء الاصطناعي أن تظل جميع البيانات مشفرة أثناء المعالجة؟
تؤكد الأطر التنظيمية مثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي وإطار عمل إدارة مخاطر الذكاء الاصطناعي من NIST في الولايات المتحدة على إدارة المخاطر، وحماية البيانات، والمساءلة للأنظمة عالية التأثير. مع تطور هذه الأطر، يصبح من الصعب تبرير الأنظمة التي تكشف البيانات الحساسة بشكل متعمد بموجب توقعات الحوكمة المعتمدة.
كما أن مجموعات المعايير تضع الأسس من خلال وضع قواعد أوضح لكيفية تعامل الذكاء الاصطناعي مع البيانات أثناء الاستخدام. قد تتفاوت سرعة تطبيق هذه القواعد عبر المناطق. ومع ذلك، يجب أن تتوقع الشركات مزيدًا من الضغط على الأنظمة التي تعالج البيانات بنص واضح. وهكذا، فإن الذكاء الاصطناعي السري أقل عن التخمين بالمستقبل وأكثر عن التوافق مع الاتجاهات التنظيمية الحالية.
كيف تبدو “الترميز المسؤول” حاليًا للمطورين وقادة تكنولوجيا المعلومات؟
الترميز المسؤول ببساطة هو أن تظل مسؤولًا عن كل سطر من الشفرة، من مراجعة اقتراحات الذكاء الاصطناعي إلى التحقق من التداعيات الأمنية، بالإضافة إلى النظر في كل حالة حافة في كل برنامج. بالنسبة للمنظمات، يتطلب ذلك تعريفًا واضحًا للسياسات بشأن الموافقة على أدوات معينة وطرق آمنة للشفرات الحساسة، مع ضمان فهم الفرق لكل من نقاط القوة والقيود في مساعدة الذكاء الاصطناعي.
بالنسبة للجهات التنظيمية وقادة الصناعة، يتطلب الأمر تصميم قواعد واضحة لتمكين الفرق من التعرف بسهولة على الأدوات المسموح بها وأين يمكن استخدامها. يجب أن يُسمح فقط للبيانات الحساسة بالدخول إلى الأنظمة التي تلتزم بمتطلبات الخصوصية والامتثال، مع تدريب المشغلين والمستخدمين على فهم قوة الذكاء الاصطناعي وقيوده. الذكاء الاصطناعي يوفر الجهد والوقت عند استخدامه بشكل جيد، لكنه يحمل مخاطر مكلفة إذا استُخدم بشكل غير مسؤول.
مع النظر إلى المستقبل، كيف تتصور تطور مساعدات الترميز بالذكاء الاصطناعي فيما يتعلق بالأمان؟
ستتطور أدوات الترميز بالذكاء الاصطناعي من كونها مجرد توصيات إلى التحقق من الشفرة أثناء كتابتها مع الالتزام بالقواعد، والمكتبات المصرح بها، والقيود الأمنية في الوقت الحقيقي.
سيتم أيضًا دمج الأمان بشكل أعمق في كيفية تشغيل هذه الأدوات من خلال تصميم تنفيذ مشفر وسجلات قرارات واضحة كميزات عادية. مع مرور الوقت، ستتحول مساعدات الذكاء الاصطناعي من مخاطر إلى أدوات دعم للتطوير الآمن. ستكون الأنظمة الأفضل هي التي تجمع بين السرعة والسيطرة. وسيتم تحديد الثقة بناءً على كيفية عمل الأدوات، وليس بوعد من المطورين.