لجنة البرلمان البريطانية تشير إلى ثغرات في الرقابة على الذكاء الاصطناعي قد تعرض النظام المالي للخطر

Decrypt

باختصار

  • حذر لجنة الخزانة في المملكة المتحدة من أن الجهات التنظيمية تعتمد بشكل مفرط على القواعد الحالية مع تسارع استخدام الذكاء الاصطناعي عبر الخدمات المالية.
  • دعت إلى توجيهات أوضح بشأن حماية المستهلك والمسؤولية التنفيذية بحلول نهاية عام 2026.
  • يقول المراقبون إن الغموض التنظيمي يهدد بكبح نشر الذكاء الاصطناعي المسؤول مع ازدياد صعوبة مراقبة الأنظمة.

حذرت لجنة برلمانية في المملكة المتحدة من أن الاعتماد السريع على الذكاء الاصطناعي في الخدمات المالية يتجاوز قدرة الجهات التنظيمية على إدارة المخاطر على المستهلكين والنظام المالي، مما يثير مخاوف بشأن المساءلة والرقابة والاعتماد على مزودي التكنولوجيا الكبار. وفي نتائج أُمر بنشرها من قبل مجلس العموم في وقت سابق من هذا الشهر، قالت لجنة الخزانة إن الجهات التنظيمية في المملكة المتحدة، بما في ذلك هيئة السلوك المالي، وبنك إنجلترا، ووزارة الخزانة، تعتمد بشكل مفرط على القواعد الحالية مع انتشار استخدام الذكاء الاصطناعي عبر البنوك وشركات التأمين وشركات الدفع. “من خلال اتخاذ نهج الانتظار والترقب تجاه الذكاء الاصطناعي في الخدمات المالية، فإن السلطات الثلاث تعرض المستهلكين والنظام المالي لأضرار محتملة وخطيرة،” كتبت اللجنة. 

قالت اللجنة إن الذكاء الاصطناعي مدمج بالفعل في الوظائف المالية الأساسية، في حين أن الرقابة لم تواكب حجم أو غموض تلك الأنظمة. وتأتي هذه النتائج في وقت تدفع فيه الحكومة البريطانية لتوسيع اعتماد الذكاء الاصطناعي عبر الاقتصاد، حيث وعد رئيس الوزراء كير ستارمر قبل حوالي عام بـ”تسريع” مستقبل بريطانيا من خلال التكنولوجيا. وفي حين أشار إلى أن “الذكاء الاصطناعي والتطورات التكنولوجية الأوسع قد تجلب فوائد كبيرة للمستهلكين،” قالت اللجنة إن الجهات التنظيمية فشلت في تزويد الشركات بتوقعات واضحة حول كيفية تطبيق القواعد الحالية في الممارسة. وحثت اللجنة هيئة السلوك المالي على نشر إرشادات شاملة بحلول نهاية عام 2026 حول كيفية تطبيق قواعد حماية المستهلك على استخدام الذكاء الاصطناعي وكيفية تخصيص المسؤولية للمديرين التنفيذيين الكبار بموجب قواعد المساءلة الحالية عندما تتسبب أنظمة الذكاء الاصطناعي في ضرر.

من المتوقع إصدار الدقائق الرسمية في وقت لاحق من هذا الأسبوع. “لجدارتها، خرجت المملكة المتحدة في المقدمة في مجال التكنولوجيا المالية — كانت منصة الاختبار (sandbox) الخاصة بـ FCA في 2015 الأولى من نوعها، ونسختها 57 دولة منذ ذلك الحين. لا تزال لندن مركزًا قويًا في التكنولوجيا المالية على الرغم من بريكست،” قال ديرموت مكغراث، الشريك المؤسس في استوديو الاستراتيجية والنمو ZenGen Labs المقيم في شنغهاي، لـ Decrypt. ومع ذلك، بينما “نجح هذا النهج لأن الجهات التنظيمية كانت تستطيع رؤية ما تفعله الشركات والتدخل عند الحاجة،” قال مكغراث، “الذكاء الاصطناعي يكسر هذا النموذج تمامًا.” يستخدم التكنولوجيا على نطاق واسع بالفعل في القطاع المالي في المملكة المتحدة. ومع ذلك، يفتقر العديد من الشركات إلى فهم واضح للأنظمة التي تعتمد عليها، شرح مكغراث. هذا يترك الجهات التنظيمية والشركات لاستنتاج مدى تطبيق قواعد العدالة القديمة على القرارات الغامضة المدفوعة بالنماذج. يجادل مكغراث بأن القلق الأكبر هو أن القواعد غير الواضحة قد تعيق الشركات التي تحاول نشر الذكاء الاصطناعي إلى حد “يعيق فيه الغموض التنظيمي الشركات التي تقوم بذلك بحذر.” تصبح مسؤولية الذكاء الاصطناعي أكثر تعقيدًا عندما يتم بناء النماذج بواسطة شركات تكنولوجيا، وتتكيف بواسطة أطراف ثالثة، وتستخدم من قبل البنوك، مما يترك المديرين مسؤولين عن قرارات قد يواجهون صعوبة في شرحها، شرح مكغراث.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات