كشف تسريب البيانات أن "كلود" قد لا يكون ذكيًا بشكل كافٍ، وأن ذلك ليس مجرد قصة شائعة في المدينة، فالنماذج الذكية غير مستقرة وتشكل مخاطر على الشركات

ChainNewsAbmedia

بعد أن أصبح الذكاء الاصطناعي أداة قياسية في الشركات، فإن ظاهرة كان يُنظر إليها في الماضي على أنها «مسألة إحساس» تظهر بسرعة على السطح: إن نماذج اللغات الكبيرة LLM (Large Language Models) أصبحت «أغبى». أشار مستخدم الإنترنت Wisely Chen إلى أن ما يُسمى بـ «هبوط ذكاء LLM» ليس مجرد حكاية متداولة في المدينة، بل يمكن تتبعه باستمرار عبر البيانات، وهو ما يسبب بالفعل تأثيرًا ملموسًا على سير عمل الشركات.

واستخدم مثالًا من تجربته الشخصية، ففي 15 أبريل، حدثت عملية تدهور شاملة في خدمات سلسلة Claude التابعة لـ Anthropic، بما في ذلك claude.ai وAPI وClaude Code، حيث تظهر جميعها عبارة «Degraded Performance». ولا يتعلق الأمر بمجرد بطء أو أخطاء عارضة، بل إن جودة الاستجابة تنهار بوضوح، بل وحتى تظهر حالات لا يمكن فيها استخدام الخدمة بشكل طبيعي، ما أدى إلى تأجيل جميع مهام التطوير الثلاث في ذلك اليوم.

قد تكون هذه الظروف بالنسبة للمطورين الأفراد مجرد انخفاض في الكفاءة، لكن بالنسبة لفرق تكنولوجيا المعلومات في الشركات فإن الأثر يتضاعف. عندما يعتمد فريق يضم عدة مهندسين على أدوات الذكاء الاصطناعي لإجراء البرمجة وكتابة المستندات وأتمتة العمليات، فإن أي تدهور في النموذج يعني أن الإنتاجية الإجمالية تتراجع بشكل جماعي في الوقت نفسه، وهو ما يتحول إلى خسائر ملموسة في الوقت والتكلفة.

هل شعرت أن الذكاء الاصطناعي أصبح «أغبى»؟ تؤكد البيانات أنه تم «تدهوره» منذ وقت طويل

أشار Wisely Chen إلى أن مثل «GPT أصبح أغبى» و«Claude ليس كما كان من قبل» قد انتشرت في المجتمع منذ فترة طويلة، لكن ظلّت تفتقر إلى دعم بيانات موضوعية لفترة طويلة. وحتى ظهور منصات بدأت في الآونة الأخيرة بالمراقبة المستمرة لجودة النماذج، لم تتمكن هذه الظاهرة من أن تُقاس لأول مرة بشكل كمي.

ضمن ذلك، أجرى StupidMeter اختبارات آلية على مدار 24 ساعة على نماذج شائعة تشمل OpenAI وAnthropic وGoogle وغيرها، وتتبع مؤشرات مثل الدقة وقدرات الاستدلال والثبات. وبخلاف اختبارات benchmark التقليدية لمرة واحدة، فإن مثل هذه الأنظمة تكون أقرب إلى طريقة مراقبة واجهات برمجة التطبيقات أو قابلية خدمات التشغيل في الشركات، إذ تراقب تقلب أداء النموذج في بيئات الاستخدام الفعلية.

والنتائج واضحة جدًا: حاليًا، توجد أغلبية النماذج الرئيسية في حالة تحذير أو حالة تدهور، ولا تحافظ سوى قلة قليلة من النماذج على وضعها الطبيعي. وهذا يعني أن جودة النماذج غير مستقرة، وليست مشكلة تخص منتجًا واحدًا فقط، بل ظاهرة شائعة على مستوى الصناعة بأكملها.

LLM يهبط تدريجيًا في الذكاء، ويؤثر على استقرار سير عمل الذكاء الاصطناعي للشركات

بالنسبة للشركات، تعني هذه التغييرات أن الذكاء الاصطناعي انتقل من «أداة لتحسين الكفاءة» إلى «متغير يؤثر على الاستقرار». إذا كانت العمليات اليومية في الشركة، من كتابة البرامج إلى إجراء مراجعات الكود وصولًا إلى إنتاج المستندات وتقارير التحليل، تعتمد بالفعل بشكل كبير على LLM. ففي حال ظهرت في يومٍ ما تراجع في قدرات الاستدلال أو هبوط في جودة الإجابات لدى النموذج، فلن تظهر هذه المشكلات كما في عيوب البرمجيات التقليدية بشكل جزئي في مكان واحد، بل ستتسرب في الوقت نفسه إلى جميع مراحل استخدام الذكاء الاصطناعي.

والأكثر أهمية هو أن هذا النوع من التذبذب غالبًا ما يكون صعبًا على التنبؤ، وصعبًا أيضًا اكتشافه في الوقت المناسب. لا تمتلك معظم الشركات آليات لمراقبة جودة النماذج بشكل مستمر؛ وعادة ما يكتشفون المشكلة بعد أن تكون النتائج غير طبيعية، أو بعد أن تنخفض كفاءة الفريق، فيلاحظون أن السبب يعود إلى النموذج نفسه. في مثل هذا السياق، لم يعد «هبوط الذكاء» مجرد إحساس ذاتي لدى المستخدمين، بل أصبح خطرًا منهجيًا يؤثر مباشرة على إيقاع تشغيل الشركة.

عندما يصبح الذكاء الاصطناعي مثل الكهرباء والمياه، تصبح الاستقرارية مؤشرًا أساسيًا جديدًا

شبه Wisely Chen دور LLM بمقولة «كهرباء ومياه الشركات الحديثة». عندما يتغلغل الذكاء الاصطناعي في العمليات اليومية ويصبح قدرة أساسية لا غنى عنها، تزداد أهمية استقراريته تبعًا لذلك.

في الماضي، عند تقييم أدوات الذكاء الاصطناعي، كانت الشركات تركز على قدرات النموذج والسعر والوظائف. لكن مع بروز ظاهرة «هبوط الذكاء»، يظهر مؤشر أكثر أهمية، وهو الاستقرارية. عندما يمكن أن تتغير جودة النموذج دون إشعار، فإن الشركات لم تعد تقتصر على «استخدام الذكاء الاصطناعي»، بل يتعين عليها تحمل نوع جديد من مخاطر البنية التحتية. والأكثر يأسًا هو أنه إذا ركزت فقط على نماذج اللغات الكبيرة المتقدمة، ففي الأساس، ما دامت مشكلة القدرة الحاسوبية غير محلولة، فمن المحتمل أن يستمر حدوث ذلك.

هذه المقالة أُول مرة ظهرت في 鏈新聞 ABMedia.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

前字节跳动 Seed 工程师:字节跳动 AI 迭代需要六个月,而谷歌是三个月

Gate News 消息,4 月 24 日——字节跳动 Seed 团队的前工程师、现任北京大学助理教授张驰在播客“Into Asia”中透露,字节跳动完成一次完整的大型语言模型训练周期大约需要六个月 (预训练

GateNewsمنذ 13 د

OpenAI 工程师 Clive Chan 挑战 V4 硬件建议,称其相较 V3 存在错误与模糊之处

Gate News 消息,4 月 24 日——OpenAI 工程师 Clive Chan 就 V4 技术报告中的硬件建议章节提出了详细反对意见,称其相较备受赞誉的 V3 版本“出人意料地平庸且容易出错”。V3 的硬件指导包含 Q&A 会议

GateNewsمنذ 45 د

نَافيـر تطلق النسخة التجريبية لميزة AI Tab بعد دخول Google Gemini إلى سوق البحث في كوريا الجنوبية

رسالة أخبار جيت، 24 أبريل — أعلنت شركة نافيـر بدء النسخة التجريبية المغلقة لميزة AI Tab الجديدة، وهي ميزة بحث محادثي، وذلك بعد إطلاق جوجل لـ Gemini في كروم داخل كوريا الجنوبية. ستظهر AI Tab إلى جانب تبويبات البحث الحالية لدى نافيـر، لتوفير مساحة مخصصة للمستخدمين لاستعلامات محادثية

GateNewsمنذ 57 د

توظيف هندسة الذكاء الاصطناعي في الهند يقفز بنسبة 59.5%، ويتوسع خارج مراكز التكنولوجيا

تقرير LinkedIn عن سوق العمل بالذكاء الاصطناعي لعام 2026، الذي صدر في 24 أبريل، وجد أن التوظيف في مجال هندسة الذكاء الاصطناعي في الهند ارتفع بنسبة 59.5% على أساس سنوي، ما يمثل أسرع وتيرة بين الأسواق التي درستها المنصة. وكان هذا النمو مدفوعًا بتوسع الطلب خارج المراكز التقنية الراسخة. مدن تشمل

CryptoFrontierمنذ 1 س

بنك الكومنولث يخفض 120 وظيفة مع توسع الذكاء الاصطناعي

أعلنت مجموعة كومنويلث بنك أستراليا أنها ستُخفض ما يقارب 120 وظيفة، حيث يقوم أكبر بنك في البلاد بمراجعة أدواره وتوسيع استخدامه للذكاء الاصطناعي، وفقًا لوكالة بلومبرغ. تشمل عمليات التخفيض 43 دورًا في بنك ويست باينست في أستراليا الغربية، مع تأثر ست وظائف بالأتمتة. هذا أ

CryptoFrontierمنذ 1 س

كورسور يكشف سبب تدريب XAI: القدرة الحاسوبية كانت عالقة، وSpaceX تمتلك خيارات شراء بقيمة 60 مليار دولار أمريكي

أعلنت Anysphere أن Cursor سيتعاون مع xAI لتدريب نماذج جديدة باستخدام البنية التحتية Colossus من أجل تجاوز عنق الزجاجة في القدرة الحاسوبية؛ كما قدمت SpaceX خيار استحواذ بقيمة 60 مليار دولار (يمكن استحواذها بالكامل خلال عام 2026)، وإذا لم يحدث ذلك فستدفع حوالي 10 مليارات دولار كتعويض تعاوني. تتم المعاملتان في الوقت نفسه، مما يعيد تشكيل من يمكنه تدريب Cursor ومن يمكنه الاستحواذ عليه. ما يزال Cursor يسمح بخلفيات نماذج متعددة، لكن المسار على المدى الطويل يتوقف على ما إذا كانت SpaceX ستُمارس حق الاستحواذ.

ChainNewsAbmediaمنذ 1 س
تعليق
0/400
لا توجد تعليقات