NVIDIA GTC 2026|هوانغ رين هويون: إنفيديا تعيد تعريف الحوسبة، سوق مراكز البيانات يتجه نحو سوق بقيمة تريليون

ChainNewsAbmedia

في مؤتمر Nvidia GTC 2026، أعرب هوان رنشو بثقة قائلاً: إن العديد من الشركات الأصلية في مجال الذكاء الاصطناعي ظهرت لأن Nvidia “أعادت تعريف الحوسبة”. وقال إننا نعيش في بداية ثورة منصات جديدة، تشبه ثورة الحواسيب الشخصية. خلال العامين الماضيين، مع ظهور ChatGPT، بدأت حقبة الذكاء الاصطناعي التوليدي فعلاً.

عرض هوان رنشو شريحة رئيسية تكشف أن سوق الحوسبة الذكائية العالمي يدخل مرحلة نمو انفجارية. تُظهر الصورة أن الحجم المحتمل لسوق مراكز البيانات العالمية (TAM) ارتفع من حوالي 500 مليار دولار في 2025 إلى أكثر من تريليون دولار (1T$) خلال عام واحد فقط، وما زال في توسع مستمر. المفهوم الأهم في الشريحة هو “نقطة انعطاف الاستنتاج” (Inference Inflection).

كان التركيز في تطور الذكاء الاصطناعي سابقًا على مرحلة التدريب، حيث يتم تعليم النموذج على كميات هائلة من البيانات. لكن مع نضوج النماذج الكبيرة، بدأ الذكاء الاصطناعي يُنشر في منتجات وخدمات متنوعة، مثل خدمة العملاء، وتوليد الصور، وتطوير البرمجيات. هذا يعني أن مركز السوق يتحول من التدريب إلى الاستنتاج (Inference). عندما يُستخدم الذكاء الاصطناعي من قبل مليارات المستخدمين في آن واحد، فإن كل سؤال، أو توليد صورة أو فيديو، يتطلب دعمًا حاسوبيًا. هذا الطلب على الحوسبة عالية التردد ومنخفضة التأخير، سيؤدي إلى نمو هندسي في طلبات استنتاج الذكاء الاصطناعي.

في بداية خطابه، استغرق هوان رنشو وقتًا طويلًا لعرض تطبيقات منصة Nvidia البرمجية في مختلف الصناعات، خاصة بيئة مكتبة CUDA-X. قال: “نحن شركة خوارزميات.” وأشار إلى أن تطبيقات الذكاء الاصطناعي ليست مجرد توليدية. “وضع GenAI على الحائط ورؤيته هل سينجح ليس استراتيجية.” يعتقد أن المشاكل التي تواجهها الصناعات مختلفة جدًا، لذلك يتعين على Nvidia تطوير مكتبات مخصصة لكل مجال (domain-specific libraries).

نقطة انعطاف الاستنتاج: حجم مراكز البيانات العالمية يتجه نحو تريليون دولار

في خطاب رئيسي بمؤتمر GTC 2026، عرض هوان رنشو شريحة رئيسية تكشف أن سوق الحوسبة الذكائية العالمي يدخل مرحلة نمو انفجارية. تُظهر الصورة أن الحجم المحتمل لسوق مراكز البيانات العالمية (TAM) ارتفع من حوالي 500 مليار دولار في 2025 إلى أكثر من تريليون دولار (1T$) خلال عام واحد، وما زال في توسع مستمر.

المفهوم الأهم هو “نقطة انعطاف الاستنتاج” (Inference Inflection). سابقًا، كان التركيز على مرحلة التدريب، حيث يُعلم النموذج على كميات هائلة من البيانات. ومع نضوج النماذج الكبيرة، بدأ الذكاء الاصطناعي يُنشر في منتجات وخدمات مثل البحث، وخدمة العملاء، وتوليد الصور، وتطوير البرمجيات. هذا يعني أن مركز السوق يتحول من التدريب إلى الاستنتاج.

عندما يُستخدم الذكاء الاصطناعي من قبل مليارات المستخدمين في وقت واحد، فإن كل سؤال أو طلب أو توليد صورة أو فيديو يتطلب دعمًا حاسوبيًا. هذا الطلب العالي على الحوسبة ذات التردد العالي والتأخير المنخفض، سيؤدي إلى نمو هندسي في طلبات استنتاج الذكاء الاصطناعي، ويُعتبر هذا القوة الدافعة وراء سوق مراكز البيانات التي تقدر بتريليونات الدولارات.

الشريحة اليمنى من الصورة تظهر أن الطلب على الحوسبة الذكائية يأتي حاليًا من فئتين رئيسيتين من العملاء. حوالي 60% من الطلب يأتي من مزودي خدمات السحابة الضخمة (Hyperscalers) وشركات الذكاء الاصطناعي الأصلية (AI-native companies)، بما في ذلك:

أمازون ويب سيرفيسز (AWS)

جوجل كلاود

مايكروسوفت

ومطورو نماذج الذكاء الاصطناعي:

OpenAI

Anthropic

xAI

أما الـ40% المتبقية من الطلب، فهي من مجالات جديدة تركز عليها Nvidia مؤخرًا، تشمل الذكاء الاصطناعي السيادي (Sovereign AI)، والصناعات والتطبيقات المؤسسية. الذكاء الاصطناعي السيادي هو بناء بنية تحتية للذكاء الاصطناعي تتبع لسيادة الدولة، تشمل:

إنشاء حواسيب خارقة وطنية للذكاء الاصطناعي

تدريب نماذج لغوية محلية

إرساء سيادة البيانات الوطنية

بالإضافة إلى ذلك، بدأت الصناعات التقليدية في اعتماد الذكاء الاصطناعي على نطاق واسع، مثل:

السيارات وأنظمة القيادة الذاتية

التصنيع والمصانع الذكية

تحليل الصور الطبية

نماذج المخاطر المالية

وفي مركز الشريحة، تم سرد أبرز نماذج الذكاء الاصطناعي الحالية، بما في ذلك ChatGPT، Gemini، Grok، ونماذج مفتوحة المصدر متنوعة. وأشارت إلى أن Anthropic وMeta Superintelligence Labs يُعدان قوى ناشئة بعد عام 2025، مما يدل على توسع سريع في منافسة نماذج الذكاء الاصطناعي.

نقطة رئيسية في GTC 2026: Nvidia شركة “خوارزميات”

خصص هوان رنشو وقتًا طويلًا لشرح تطبيقات منصة Nvidia البرمجية عبر مختلف الصناعات، من الرعاية الصحية، والتصنيع، والمالية، إلى الحوسبة السحابية. وأكد أن كل القدرات تعود في النهاية إلى بيئة مكتبة CUDA-X. قال: “نحن شركة خوارزميات.” ووصف CUDA-X بأنها “جوهرة التاج” في Nvidia، مؤكدًا أن القيمة الحقيقية لوحدة المعالجة الرسومية (GPU) تأتي من المنصة البرمجية، وليس فقط من العتاد.

واحدة من أهم مكونات CUDA-X هي cuDNN، وهي مكتبة مخصصة لتسريع الشبكات العصبية العميقة باستخدام GPU، وتُستخدم على نطاق واسع في أطر الذكاء الاصطناعي الرائدة، وأصبحت عنصرًا أساسيًا في بنية التعلم العميق الحديثة.

كرر هوان رنشو تأكيد أهمية البرمجيات في منظومة الذكاء الاصطناعي، مشددًا على أن cuDNN واحدة من أكثر المكتبات أهمية في الشركة، ووصفها بأنها السبب في الانفجار الكبير للذكاء الاصطناعي الحديث. خلال المؤتمر، عرض Nvidia مقطعًا قصيرًا عن بيئة CUDA-X، يتضمن فيديو تم إنشاؤه بالكامل بواسطة الذكاء الاصطناعي وتقنيات المحاكاة، يكاد يكون غير قابل للتفريق عن الواقع، ليبرز التقدم في تسريع GPU والأطر العميقة في معالجة الصور.

هوان رنشو: الذكاء الاصطناعي يحتاج إلى “مكتبات مخصصة للصناعات”

أشار هوان رنشو إلى أن تطبيقات الذكاء الاصطناعي ليست مجرد توليدية. “وضع GenAI على الحائط ورؤيته هل سينجح ليس استراتيجية.” يعتقد أن المشاكل التي تواجهها الصناعات مختلفة جدًا، لذلك يتعين على Nvidia تطوير مكتبات مخصصة لكل مجال (domain-specific libraries)، لتقديم حلول محسنة لكل قطاع.

وهذا هو سبب توسع بيئة CUDA-X، التي تغطي الآن عشرات المجالات، بما في ذلك:

الحوسبة العلمية

الصور الطبية

القيادة الذاتية

التحليل المالي

هندسة البيانات

تمكن هذه المكتبات GPU من تحقيق أقصى أداء في سيناريوهات صناعية مختلفة.

الدمج الرأسي، والانفتاح الأفقي في منصة الذكاء الاصطناعي

وصف هوان رنشو استراتيجية Nvidia بأنها “الدمج الرأسي، والانفتاح الأفقي” (vertically integrated but horizontally open). بمعنى أن Nvidia تقدم مجموعة متكاملة من الرقائق، الأنظمة، البرمجيات، ومنصات التطبيقات، مع السماح للشركات والمطورين بتطوير تطبيقاتهم على منصتها. في ظل الطلب المتزايد على الحوسبة الذكائية، ترى Nvidia أن هذا النموذج هو السبيل الوحيد لدفع الحوسبة المعجلة (accelerated computing).

المعركة الرئيسية في الذكاء الاصطناعي: البيانات غير المهيكلة

ذكر هوان رنشو أيضًا مهمة أخرى للذكاء الاصطناعي، وهي معالجة البيانات غير المهيكلة (unstructured data). أشار إلى أن حوالي 90% من البيانات عالمياً غير مهيكلة، مثل الصور، والفيديو، والصوت، والنصوص الطبيعية، لكنها كانت تعتبر سابقًا غير ذات فائدة بسبب صعوبة البحث والتحليل. مع نضوج تقنيات الذكاء الاصطناعي وتسريع GPU، تتجه هذه البيانات تدريجيًا نحو أن تكون أصولًا قابلة للتحليل.

على سبيل المثال، تستخدم IBM إطار عمل cuDF من Nvidia لتسريع منصة WatsonX للبيانات، مما يُحسن من كفاءة معالجة كميات هائلة من البيانات غير المهيكلة، ويجعلها قابلة للتحليل بسرعة.

OpenAI ستعتمد على AWS لتخفيف ضغط الحوسبة

عند الحديث عن بنية تحتية للذكاء الاصطناعي، أشار هوان رنشو إلى أن شركة OpenAI تواجه حاليًا قيودًا كبيرة في قدرات الحوسبة. وأوضح أن الشركة “مقيدة تمامًا بالقدرة الحاسوبية”، وأنها ستبدأ هذا العام في استخدام بنية AWS التحتية لتخفيف الطلب الكبير على الحوسبة.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات