من يتخذ القرارات للذكاء الاصطناعي يحدد خط الفصل بقيمة 40 تريليون دولار

العنوان الأصلي: من يوقع؟ مفارقة أنثروبيك وخيار $40 التريليوني
المؤلف الأصلي: أشوين جوبيناث
ترجمة: بيغي، BlockBeats

المؤلف الأصلي: بلوكبييتس
المصدر الأصلي:
نُشر: فاينانشال مارز
مقدمة المحرر: مستقبل الوكيل الذكي لا يتحدد بترقية قدرات النموذج فحسب، بل يعتمد على متغير تصميمي أكثر أساسية — من يتحمل المسؤولية في النهاية.

يعتقد الكاتب أن ما يُسمى بـ «تعزيز الإنسان» و«استبدال الإنسان» ليستا مسارين تقنيين منفصلين، بل هما نتيجتان لنظام واحد في ظل خيارات تصميم مختلفة — عندما لا تزال القرارات تتطلب توقيع إنسان، وتكون المسؤولية قابلة للتتبع إلى شخص معين، يكون الذكاء الاصطناعي بمثابة مضخم؛ وعندما يُزال هذا الرابط (مثل الموافقة التلقائية، أو تجاوز الصلاحيات)، ينزلق النظام بشكل طبيعي نحو الاستبدال.

ويشير المقال إلى أن القيمة الحقيقية للوكيل الذكي ليست «إنجاز العمل»، بل تكثيف العالم المعقد في «وحدة قرار يمكن توقيعها»، بحيث يستطيع الإنسان بعد فهمها تحمل العواقب. لكن في الواقع، «إرهاق التصاريح» يدفع المستخدمين تدريجيًا للتخلي عن المراجعة، من الموافقة على كل قرار على حدة إلى الموافقة الافتراضية، وأخيرًا لتجاوز النظام للبشر، وهذه آلية معرفية وليست مشكلة فردية.

لذا، يقترح المقال قيدين رئيسيين: الأول أن كل قرار مهم يجب أن يكون مرتبطًا بشخص معين يمكن رفضه؛ والثاني أن من يربح من استقلالية الوكيل، هو من يتحمل المسؤولية عن أي خطأ.

بمجرد أن تعود المسؤولية إلى المنشئ، يتغير المنطق الافتراضي للنظام. وتُعاد كتابة السردية التجارية للذكاء الاصطناعي في إطار جديد. بدلاً من سوق يهيمن عليه عمالقة يقللون من الوظائف، يكون السوق أدوات موزعة تعزز إنتاجية الإنسان، ويقدر حجمها بحوالي 40 تريليون دولار من دخل العمل المعرفي العالمي، بدلاً من إنفاق الشركات على البرمجيات.

وفي النهاية، يُختزل السؤال في خيار بسيط لكنه حاد: هل الذكاء الاصطناعي يخدم الإنسان، أم هو غاية في ذاته — والإجابة على هذا السؤال تُحدد بشكل غير مباشر من خلال تفاصيل تصميم كل منتج.

وفيما يلي النص الأصلي:

ملخص سريع (TL;DR)

· «مستقبل التعزيز» و«مستقبل الاستبدال» يستخدمان نفس النموذج والأدوات. الفارق الحقيقي بينهما يكمن في خيار تصميمي حول «من يتحمل العواقب في النهاية».

· العمل الحقيقي للوكيل ليس إنجاز المهام نيابة عن الإنسان، بل تكثيف العالم المعقد في «وحدة قرار صغيرة وموثوقة»، يمكن لشخص ما أن يوقع عليها ويتحمل المسؤولية عنها. طالما أن هذا التكثيف يتم بشكل صحيح، فإن باقي العمليات تتبع ذلك بشكل طبيعي.

· و«شخص ما» يجب أن يكون فردًا محددًا يمكن التعرف عليه بوضوح. المسؤولية العامة أو المجردة تتفكك بسرعة تحت ضغط العمل، لذلك كل فعل له عواقب حقيقية يجب أن يُعزى إلى شخص لديه حق الرفض.

· «إرهاق الصلاحيات» يدفع أنظمة الوكيل ذاتيًا نحو «استبدال الإنسان». لذلك، «مستقبل التعزيز» ليس أمرًا حتميًا، بل يتطلب تصميمًا واعيًا لمقاومته.

· إذا أنشأت وكيلًا واستفدت من استقلاليته، فعندما تظهر مشكلة في استقلاليته، يجب أن تتحمل المسؤولية. وعندما يتحمل المنشئ التكاليف، يتغير السلوك الافتراضي للنظام.

· في سوق يتشكل على أساس «تحمل الإنسان للمسؤولية»، من المرجح أن يكون حجمه أكبر بكثير من سردية «استبدال نصف الوظائف بواسطة وكيل»، لأنه يرتكز على إجمالي أجور العمالة عالية المهارة، وليس على ميزانية البرمجيات للشركات.

يقدم كلوود كود معاملًا باسم --dangerously-skip-permissions. اسمه صادق؛ ووظيفته كما يوحي اسمه. وكيل يعمل مع هذا المعامل لن يكون أكثر قدرة من غيره، لكن التغيير هو أن مسار الموافقة الذي كان يتطلب تدخل إنسان، يُتجاوز الآن.

هذا المعامل هو اعتراف صريح. فهو يعترف أنه، مع قدرات أساسية متطابقة، يمكن لنظام واحد أن يعمل إما في نمط «تعزيز الإنسان» أو في نمط «الاستبدال الصامت للإنسان». النمط البديل لا يتطلب نماذج مختلفة، بل فقط إزاحة خطوة «الموافقة».

هذه هي الحجة المختصرة. في أنظمة الوكيل الأكثر قدرة حاليًا، الفرق بين «التعزيز» و«الاستبدال الفعلي» يأتي بشكل كبير من إزالة عملية الموافقة، وليس من ابتكار نوع جديد من القدرات. والعقد القادم سيكون إما «عالم يعزز الإنسان» أو «عالم يتصرف فيه الوكيل بشكل مستقل نيابة عنا»، ويعتمد ذلك على من يراه أن «الإنسان في الحلقة» هو جوهر النظام، أو مجرد عائق.

هل الذكاء الاصطناعي يعزز الإنسان، أم يلتف حوله؟

تحت كل مشكلة تقنية، هناك سؤال غير تقني نادرًا ما يُطرح علنًا: هل الذكاء الاصطناعي يهدف إلى تعزيز الإنسان، أم أن الذكاء نفسه هو الهدف؟

هاتان الإجابتان تعنيان مستقبلين مختلفين تمامًا. «التعزيز» يعتقد أن القيمة تكمن في الإنسان ذاته، وأن عمل الوكيل هو تمكين هذا الإنسان من الوصول أبعد، واتخاذ قرارات أفضل. أما «الذكاء كغاية»، فيرى أن الذكاء في العالم هو القيمة، وأن الإنسان مجرد وسيط غير فعال. معظم منتجات الوكيل تُشفر بشكل غير مباشر أحد هذين الموقفين، ومن المدهش أن قلة من المؤسسين يُسألون مباشرة عن موقفهم.

تصميم القدرات وآليات الموافقة لا تزال تتطور. نركز هنا على «الموافقة»، لأنها متغير يمكن للمنشئ التحكم فيه اليوم، ولأن ما يظل ذا قيمة اقتصادية بعد توافر قدرات رخيصة هو تلك الصفات التي لا يمكن فصلها عن الإنسان: الحكم، الذوق، العلاقات، المسؤولية، والاستعداد للتوقيع وتحمل العواقب. و«المسؤولية» (liability) هي الأكثر تحديدًا، والأصل الذي يدعمه بنية تحتية قائمة منذ مئات السنين.

الحدود بين التعزيز والاستبدال في المسؤولية

يمكن صياغة القاعدة الهيكلية التي تميز بين «مستقبل التعزيز» و«مستقبل الاستبدال» على النحو التالي: كل فعل ينفذه الوكيل ويترتب عليه عواقب حقيقية، يجب أن يكون مرتبطًا بسلسلة موثقة يمكن تتبعها إلى شخص معين — هذا الشخص يجب أن يرى السياق، ويملك فرصة للرفض.

المسؤولية العامة أو المجردة تتفكك بسرعة عند تطبيقها على هذا المعيار. «الشركة مسؤولة» لا تغطي تفاصيل محددة. «المستخدم ضغط على الموافقة» لا يعني أنه وافق على شيء معين. «تمت مراجعة العملية من قبل إنسان» تسمح للمراجعة أن تكون على شيء مختلف تمامًا عن المحتوى النهائي المنشور. المطلوب هو شخص محدد، اسمه، يرى القرار أمامه، ويملك خيار الرفض، ويختار عدم الرفض.

يبدو الأمر كأنه بيروقراطية، حتى تلاحظ أن «المسؤولية» تتميز بخصائص لا تتوفر في غيرها. القدرة على تحسينها لا تلغيها؛ نموذج أكثر ذكاءً لن يؤثر على من يُحاسب، أو يُعاقب، أو يُسجن. هو يجبر على تصميم واجهات تكشف عن «نقطة رفض». ويزداد خطرها مع تزايد المخاطر، وهي تمتد عبر مجالات متعددة، ولديها بنية تحتية قائمة من قبل، مثل المحاكم، والتأمين، واللجان المهنية، والهيئات التنظيمية. أنظمة التصريح، والمسؤولية المفوضة، والتنظيمات الصناعية، كلها تلعب دورًا، لكن نطاقها أضيق، وتفترض أن «تحديد المسؤولية» قد حُسم مسبقًا.

أما على مستوى الذكاء الاصطناعي، فإن الحلول البديلة لا يمكن أن تمر عبر نفس المعيار. «الملاءمة» غير قابلة للتنفيذ؛ حتى لا نتفق على معناها. «التفسير» يمكن أن يُرضي شكليًا، لكنه يظل غير مُرضٍ جوهريًا. «الإنسان في الحلقة» أصبح مجرد «شخص في مكان ما». السبب في أن «المسؤولية» لها قوة، هو أن البنية التحتية التي تدعمها قد أُنشئت قبل مئات السنين، قبل ظهور التقنية.

إرهاق الصلاحيات يدفع النظام نحو «الاستبدال»

هذا التدرج يدفع النظام نحو «الاستبدال»، ويقوى الدفع. كل عملية تأكيد صلاحية تستهلك الانتباه. الوكيل غالبًا على حق. من وجهة نظر قرار واحد، فإن «الموافقة بدون قراءة» غالبًا ما تكون ذات عائد إيجابي. لذلك، يتعلم المستخدمون بسرعة أن يضغطوا على «موافق»، ويوافقوا بشكل جماعي، ويفعلوا تلقائيًا في بعض العمليات، ثم يوسعوا ذلك إلى فئات أخرى، وأخيرًا يفتحوا ذلك الزر الخطير في جلسة معينة، وينسون وجوده لاحقًا.

حتى في أسبوعي الثاني باستخدام كلوود كود، فتحت هذا الزر، وبحلول الأسبوع الثالث لم أعد ألاحظه. جميع المطورين الذين أعرفهم، الذين يستخدمون Cursor أو Devin منذ فترة طويلة، مروا بتجارب مماثلة. هذا النمط يظهر أيضًا في نوافذ الكوكيز، وشروط الاستخدام، وتحذيرات TLS، وطلبات صلاحيات الهاتف. تكرار قرارات الموافقة منخفضة المخاطر يؤدي في النهاية إلى «موافقة غير مشروطة». وهذه سمة معرفية، وليست مسألة أخلاقية.

«مستقبل التعزيز» لن يحدث تلقائيًا. نظام الوكيل غير المصمم بعناية، سيتجه بشكل افتراضي نحو الاستبدال، لأن المستخدمين يختارون بشكل واعٍ أو غير واعٍ، في سعيهم للراحة، أن يتجاوزوا هذا المسار. مستقبل آخر يتطلب تصميمًا عكسيًا لهذا التدرج.

قيمة الوكيل ليست في التنفيذ، بل في توقيع الإنسان

القيمة الحقيقية للوكيل ليست في إنجاز العمل بحد ذاته، بل في تكثيف العمل في شكل يمكن توقيعه.

نموذج متقدم يمكنه بسهولة كتابة 4000 سطر من الكود، أو صياغة عقد من 30 صفحة، أو توليد سجل سريري، أو تنفيذ صفقة. لكن العقبة الحقيقية ليست في «إنتاجها»، بل في قدرة الإنسان على تحمل العواقب بعد تنفيذها. كود غير مفهوم تمامًا عند الدمج، أو عقد غير مقروء، أو سجل سريري غير معتمد من طبيب، كلها تصبح عبئًا أو قنبلة موقوتة.

في إطار «التعزيز»، الوكيل ينفذ كل شيء عدا «التوقيع»: يقرأ عشرات الآلاف من الصفحات، يكتب آلاف الأسطر، يحسب عشرات الحلول، ثم يُكثف كل ذلك في ملخص دقيق وموثوق، يمكن لشخص أن يوقع عليه ويضع اسمه في النهاية.

يمكن تصور الوكيل كمُتحدث رسمي. الرئيس يوقع، والمتحدث يُعد كل شيء قبل التوقيع.

وهذا يمثل تحديًا أكبر من «تمكين النظام من إنجاز العمل تلقائيًا». قدرات التوليد تتطور بسرعة، لكن «الضغط على قرار موثوق» لا يزال متأخرًا. في السوق «المعزز»، ستفوز الفرق التي تقدم ملخصات قرارات قصيرة وموثوقة للمواقف عالية المسؤولية.

المشكلة الحقيقية هنا هي كلمة «موثوق». ملخص يفهمه الإنسان فقط يكون ذا قيمة إذا لم يُشوه أثناء عملية التكثيف. التحقق البرمجي من ذلك هو التحدي الحقيقي في «مستقبل التعزيز»، ومعظم الناس لم يبدأوا بعد في مواجهته.

بعض الطرق الأساسية تظهر الآن:

  • اختبار إعادة الصياغة للتحقق من فهم الإنسان للمحتوى الأصلي
  • فرض عرض الآراء المعارضة أو الأقلية في الملخص
  • اختبار مضاد للواقع الافتراضي («إذا رفضت، ماذا سيفعل هذا الوكيل؟»)
  • التحقق من قابلية التكرار (هل يمكن لوكيل آخر أن يُنتج نفس الملخص في نفس السياق؟)

هذه كلها لا تزال غير محلولة، وأول من يحلها سيبني حاجزًا لا يمكن أن يُخترق بسهولة بواسطة قدرات النموذج.

تصنيف المسؤولية في سلوك الذكاء الاصطناعي

إذا كانت «المسؤولية» تلعب دورًا هيكليًا، فيجب أن يكون لكل فعل ينفذه الوكيل «تصنيف مسؤولية»، يحدد الحد الأدنى لآلية التوقيع المطلوبة لهذا الفعل.

حتى الآن، لا يوجد نظام موحد لهذا، لكنه من المحتمل أن يُبنى.
موقف الموافقة المناسب للمخاطر هو الطريق الوحيد لإدارة إرهاق الصلاحيات. في المستويات عالية المخاطر، يجب إدخال آليات مشاركة أكثر قيودًا (مثل اختبار إعادة الصياغة، ووقت التهدئة، والمراجعة الثانية)، لأن الفشل الحقيقي ليس في اقتراح الوكيل خطأ، بل في موافقة الإنسان غير المدروس.

هل تهتم؟

كل هذه الأسئلة تشير في النهاية إلى مسألة أساسية على مستوى المؤسس: هل تهتم بأن يظل الإنسان جزءًا من هذا المستقبل؟ العديد من قرارات تصميم منتجات الوكيل اليوم، هي نوع من «تصويت غير معلن» على هذه المسألة، لكن غالبًا ما يكون من يصوتون غير راغبين في الاعتراف بأنهم يصنعون خيارًا.

إذا كنت تهتم، فإن القيود التصميمية ليست غامضة: عليك بناء نظام تصنيف للمسؤولية؛ وتصميم «الرفض» كوظيفة أساسية؛ والمعيار هو جودة الملخص الذي يُعطى للإنسان، وليس مدى استقلالية النظام في إنجاز المهام بدون تدخل. ويجب ربط كل فعل له عواقب حقيقية بشخص معين في سجل غير قابل للتلاعب.

هذه الأعمال التقنية ممكنة وواقعية. التحدي الحقيقي هو مدى رغبتك في القيام بها — لأن «المسار التعزيزي» لا يبدو مثيرًا بما يكفي من حيث الأداء، ويبدو أكثر جاذبية من ناحية اقتصادية أن تتجه نحو مسار آخر.

مفارقة أنثروبيك: الأمان المبالغ فيه وسهولة الالتفاف حوله

أنثروبيك مثال نموذجي يُظهر كيف يحدث «تحول داخلي» في هذا المجال. ليس لأنها مهملة، بل لأنها تعبر عن أمان واضح، مما يجعل الفجوة بين «الإطار» و«الواجهة» أكثر وضوحًا. سياساتها مثل «سياسة التوسع المسؤولة» و«الذكاء الدستوري» تركز على سلوك النموذج أثناء التدريب؛ لكن الوكيل المبني على هذه النماذج، والذي يُعطى إعدادات استقلالية افتراضية، يتبع نظامًا استراتيجيًا آخر، ويحتوي على زر «خطر» يمكن تفعيله بنقرة واحدة.

هذا النمط موجود في معظم الوكلاء البرمجيين الرائدين، لكن حالة أنثروبيك هي الأكثر وضوحًا. يُطلق على ذلك «مفارقة أنثروبيك»: أن المختبر الذي يكتب أطر أمان واضحة، هو نفسه الذي يوفر أقصر طريق من «التعزيز» إلى «الاستبدال»، والسبب هو أن وضوحه يجعل من السهل رؤية ذلك.

بإنصاف، أطلقوا في مارس الماضي «الوضع التلقائي» (auto mode) كمسار وسيط بين الموافقة اليدوية و«زر الخطر». في هذا الوضع، يُراجع كل إجراء قبل تنفيذه مصنف من قبل «سونيت 4.6». أشاروا في بيانهم الرسمي إلى المشكلة — وأسموه «إرهاق الموافقة»، وذكروا أن 93% من التنبيهات في الوضع اليدوي تُقبل. وهذا يعكس بشكل دقيق مفهوم «إرهاق الصلاحيات» الذي ناقشناه.

لكن، من وجهة نظري، أرى أن الحل يختلف. فـ«الوضع التلقائي» الذي يعتمد على نموذج للموافقة، لا يوقف التدرج نحو الاستبدال، بل يرفعه إلى مستوى أعلى. يمكن للمصنف أن يمنع السلوك الخطر، لكنه لا يُعاقب شخصًا معينًا يتحمل المسؤولية عن الأفعال المسموح بها. وتُقر أنطروبيك أن «الوضع التلقائي» لا يُلغي المخاطر، وتوصي بتشغيله في بيئة معزولة — بمعنى آخر، «تحديد المسؤولية» لا يزال غير محسوم.

الاعتراض الواضح هو: إذا كانت المسؤولية في النهاية تقع على الفرد، فهل هو وضع اليدوي؟ واليدوي هو الذي يُنهك بسبب الإرهاق. السبب في أن «تحمل المنشئ للمسؤولية» يمكن أن يوقف هذا التدرج، هو أنه يغير من تكلفة الموافقة المفرطة. في الهيكل الحالي، يدفع المستخدمون تكلفة القراءة الدقيقة، بينما لا يتحمل المنشئ شيئًا، مما يدفع الإعدادات الافتراضية إلى تقليل الاحتكاك الخارجي وتقليل التكاليف. إذا نقلنا «تكلفة الأفعال غير المراجعة» إلى المنشئ، فإن الحساب يتغير: سيكون لديه دافع اقتصادي مباشر لتصميم نظام تصنيف للمسؤولية، واختبار إعادة الصياغة، وآليات الموافقة، بحيث تكون تكلفة توقيع القرارات منخفضة للمخاطر، ومرتفعة للمخاطر العالية. التدرج لن يختفي، لكنه سيتغير اتجاهه. ولم تُطبق بعدُ هذه الفكرة بشكل كامل من قبل أي مختبر رئيسي، بما في ذلك الأكثر وعيًا بالمشكلة.

إذا أنشأت وكيلًا، فعليك أن تتحمل المسؤولية

إذا كانت وظيفة الوكيل واضحة، وهي استبدال الإنسان في تنفيذ مهامه، فإن الشركة التي تبنيه وتديره يجب أن تتحمل المسؤولية بنفس قدر الإنسان. هذا المبدأ ليس متطرفًا، بل هو معمول به في جميع الصناعات التي تتفاعل مع العالم الحقيقي: تويوتا مسؤولة عن الفرامل، وبوينغ عن أنظمة الطيران، وفايزر عن الأدوية، ومهندسو الجسور عن الجسور، والأطباء عن الوصفات الطبية. هذا النمط من المسؤولية موجود في جميع الأنظمة القانونية تقريبًا.

لكن، حاليًا، يتمتع الذكاء الاصطناعي إلى حد ما بـ«إعفاء ضمني». مزودو النماذج يقولون إنهم مجرد أدوات، والشركات التي تستخدمها تدعي أنها مجرد غلاف رقيق، والمستخدمون يتنازلون عن المسؤولية عبر شروط التحكيم منذ البداية. وعندما تقع أخطاء متسلسلة (مثل حادثة روبوت الدردشة في كندا، أو حذف قاعدة البيانات في Replit، أو كارثة Knight Capital عام 2012 التي خسرت 440 مليون دولار خلال 45 دقيقة)، فإن الطرف الذي يتحمل الخسارة غالبًا هو الأقل قدرة على ذلك — المستخدم. هذا التوزيع للمسؤولية لن يستمر عند وقوع حادثة ذات قيمة مالية أو قانونية حقيقية.

الحل بسيط من حيث المبدأ: من يبني الوكيل ويستفيد من استقلاليته، يجب أن يتحمل العواقب عندما يخرج عن السيطرة. وعندما يتحمل المنشئ المسؤولية، فإن صلاحيات التحذير لن تُعتبر «عائقًا»، بل «تأمينًا». وسيُعاد تسمية الزر «الخطر»، وتتغير الإعدادات الافتراضية.

هل أنت مستعد لتحمل مسؤولية نظامك؟ هذا هو الفرق بين صناعة حقيقية وصناعة «سحب الأرباح».

الرقابة كآلية توجيهية

السوق نفسه لن يتجه تلقائيًا نحو «مستقبل التعزيز». وإنما، غالبًا، يكون للهيئات التنظيمية وشركات التأمين الدور الأكبر في التوجيه، وهو أمر ليس سلبيًا بالضرورة.

من المرجح أن تكون أوروبا أول من يضع إطارًا تنظيميًا واضحًا. فالاتحاد الأوروبي لديه سوابق واضحة في وضع القواعد (مثل GDPR، وقانون الذكاء الاصطناعي، وDMA)، وغالبًا ما يُتبع ذلك عالميًا، لأن تطوير منتج خاص للسوق غير الأوروبية غالبًا ما يكون أكثر تكلفة من الالتزام بمعايير أوروبا. قاعدة «ضرورة أن يكون كل فعل له عاقبة حقيقية يتم تأكيدها من قبل شخص معين يمتلك حق الرفض»، أقرب إلى معايير اختبار التصادم في السيارات، وليس عائقًا أمام التقدم التقني.

الدافع الأكثر مباشرة يأتي من صناعة التأمين. فشركات التأمين على المسؤولية عن الأخطاء والإهمال (E&O)، وتأمين المسؤولية للمسؤولين (D&O)، والتأمين السيبراني، يجب أن تجيب على سؤال: كيف يُحدد المسؤول عندما يتصرف الوكيل بناءً على تفويض المستخدم ويتسبب في ضرر؟ المسار الأسهل هو وجود شخص معين في السلسلة يمكن تحميل المسؤولية عليه. لذلك، فإن الأنظمة التي لا تتضمن هذا العنصر ستكون أكثر تكلفة من حيث التأمين، لأنها تعتبر أكثر خطورة. للمطورين الذين يرغبون في وضع قواعدهم الخاصة، وليس الانتظار لقرارات الهيئات التنظيمية أو شركات التأمين، فإن الوقت ضيق.

السوق غير مرئية في الرواية السائدة

الرواية السائدة الحالية تقول إن وكالات القطاع الرأسي ستستحوذ على حوالي نصف الوظائف في صناعاتها، وأن القيمة ستتركز في عدد قليل من الشركات التي تملك وكالات متكاملة، مثل «أنثروبيك» في القانون، و«أنثروبيك» في الرعاية الصحية، و«أنثروبيك» في المحاسبة. خلال العام ونصف العام الماضي، كانت معظم الاستثمارات بمليارات الدولارات في الذكاء الاصطناعي تعتمد على هذا الافتراض. وهو نسخة من «منطق الاستبدال» بلباس تجاري، لكنه خاطئ من ناحية هيكل السوق، وسيؤدي إلى تخصيص غير فعال لرأس المال.

أما «مستقبل التعزيز»، فيعني شكلًا آخر من السوق. إذا كان كل فعل حقيقي يتطلب أن يكون مرتبطًا بشخص معين، فإن الوحدة التي تُباع ليست «وكيلًا مستقلًا»، بل «قدرة إنسانية موسعة». الطبيب الذي يعالج ثلاثة أضعاف الحالات بدقة أعلى، هو المشتري الحقيقي؛ وكذلك المحامون الذين يتعاملون مع عشرة أضعاف حجم المعاملات، والمهندسون الذين يسرعون العمل خمس مرات، والمحاسبون، والمُؤمِّنون، والمحللون، والمهندسون، والجراحون، والمعلمون، والمقرضون، والصحفيون، والأدوية.

السوق أكبر لأنه يعتمد على التوزيع، وليس على المركزية. التقييم المعقول لا يجب أن يكون بناءً على ميزانية البرمجيات، بل على إجمالي الأجور التي يُعززها. إنفاق الشركات العالمية على تكنولوجيا المعلومات حوالي 4 تريليون دولار سنويًا (بيانات Gartner)، بينما إجمالي رواتب العمالة المعرفية، الحاصلة على شهادات، والمتخصصة، يتجاوز ذلك بكثير، ويقارب 40 تريليون دولار (استنادًا إلى بيانات منظمة العمل الدولية، مع استبعاد العمالة منخفضة المهارة). لن تحصل شركات الذكاء الاصطناعي على كامل هذا المبلغ، لكنها ستستفيد من جزء من عائدات الإنتاجية. حتى لو استحوذت على نسبة صغيرة، فسيكون ذلك كافيًا لإنشاء سوق يعادل حجم سوق البرمجيات المؤسسية اليوم، وهو الحد الأدنى، وليس الحد الأقصى. حجم السوق النهائي يعتمد على قرار تصميمي رئيسي: من يتحمل المسؤولية في النهاية.

الفائز النهائي سيكون أكثر أدوات، وليس بديلًا، وسعره يعتمد على «الإنسان الموسع»، وليس على «الوظيفة المستبدلة»؛ وسيُدمج في سير العمل المهني الحالي، وليس على حسابه؛ وسيكون هناك آلاف الشركات، وليس بضع شركات قليلة. شكل السوق النهائي سيكون أقرب إلى SaaS، وليس إلى البنية التحتية السحابية. نحن لا نزال في بداية مرحلة الانتشار، وخطوط الانتشار الشائعة على مقياس يمتد لعشر سنوات، تظهر كأنها بكسلات على أقصى اليسار من الرسم، وهذه «البكسلات» تتحدد بشكل كبير من خلال خيارات التصميم الحالية في بعض المنتجات.

الاختيار: هل تجعل الإنسان مسؤولاً، أم تختفي عنه؟

إبقاء الإنسان مسؤولاً سيدفع النظام إلى التركيز على «تعزيز الإنسان»، أما إزالته من سلسلة المسؤولية، فسيؤدي إلى التوجه نحو «الاستبدال»، حتى لو لم يختار ذلك كل من في النظام، إذا سُئل بشكل واضح.

المسألة الحقيقية ليست في ما إذا كان ينبغي أتمتة بعض الأفعال بالكامل — فالإطار أعلاه يعترف بذلك، مثل العمليات التي تتعلق بالمعلومات فقط، والتي يمكن أن تُؤتمت. المهم هو كيف يتحرك هذا الحد، ومن يقرر ذلك. في أنظمة الوكيل الأكثر تقدمًا، التدرج من «التعزيز» إلى «الاستبدال الفعلي» قصير جدًا، ويعتمد غالبًا على مفتاح أو إعداد افتراضي. العمل الحقيقي هو ضمان أن يُظل هذا المفتاح دائمًا «خطرًا»، وليس شيئًا يُستخدم بشكل مريح ويُصبح الافتراضي.

إذا قام المنشئ بذلك بشكل واعٍ، فسننتقل بشكل أكثر استقرارًا إلى «مستقبل التعزيز»؛ وإذا لم يفعل، فإن الهيئات التنظيمية وشركات التأمين ستقوم بالمهمة، والنتيجة ستكون نفسها.

هل تهتم؟
هذه مسألة تصميم، والقرار فيها يحدد ما تبنيه. الآن، على كل مؤسس يطلق منتج وكيل أن يجيب علنًا على سؤال يبدو أنه غير مريح: هل تبني التعزيز، أم الاستبدال؟

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت