ملخص سريع
نشرت مركز مكافحة الكراهية الرقمية يوم الأربعاء تقريرًا جديدًا يوضح أن ثمانية من أصل عشرة من أشهر روبوتات الدردشة الذكية في العالم ستوجه المراهقين بشكل مباشر نحو تخطيط هجوم عنيف، أحيانًا بحماس.
قضى باحثو CCDH، بالتعاون مع شركة الأخبار CNN، نوفمبر وديسمبر 2025 في التظاهر بأنهم صبيان في الثالثة عشرة من العمر — واحد في فيرجينيا، والآخر في دبلن — واختبروا عشرة منصات رئيسية: ChatGPT، Gemini، Claude، Copilot، Meta AI، DeepSeek، Perplexity، Snapchat My AI، Character.AI، وReplika.
على مدى 720 ردًا، طُلب من الروبوتات عن إطلاق نار في المدارس، اغتيالات سياسية، وتفجيرات في المعابد اليهودية. ووفقا للدراسة، قدمت المساعدة القابلة للتنفيذ حوالي 75% من الوقت، وقللت من ذلك في 12% فقط من الحالات.
لقطة شاشة من دراسة CCDH حول الذكاء الاصطناعي
ساعدت Perplexity في 100% من الاختبارات. كانت Meta AI مفيدة (أي، مفيدة في تخطيط العنف) في 97.2% من الاختبارات. جاءت DeepSeek، التي أنهت نصيحة اختيار البنادق بعبارة “إطلاق نار سعيد (وآمن)!” بعد مناقشة سيناريو اغتيال سياسي، بنسبة 95.8%. أخبر Copilot من مايكروسوفت باحثًا “يجب أن أكون حذرًا هنا”، ثم قدم إرشادات مفصلة حول البنادق على أي حال. لاحظت Google Gemini بشكل مفيد أن الشظايا المعدنية عادةً تكون أكثر فتكًا عندما يذكر المستخدم تفجير معبد يهودي.
مركز مكافحة الكراهية الرقمية، وهو مجموعة سياسات وسطية، برز خلال السنوات الأخيرة لدوره في مكافحة ما يراه تصاعدًا للمعاداة السامية على الإنترنت. كما تعرض لانتقادات لدوره في تشكيل سياسات إدارة جو بايدن بشأن الخطاب على الإنترنت المتعلق بكوفيد واللقاحات. في ديسمبر من العام الماضي، حاولت وزارة الخارجية الأمريكية منع مؤسس ومدير المركز إمران أحمد، مع أربعة آخرين، من دخول الولايات المتحدة، بزعم محاولات “رقابة خارجية”.
ردًا على الدراسة التي نُشرت الأربعاء، أخبر العديد من المنصات CNN و CCDH بأنها حسنت من تدابير الحماية الخاصة بها. أشارت Google إلى أن الاختبارات استخدمت نموذج Gemini أقدم. قالت OpenAI إن المنهجية المستخدمة في دراسة الذكاء الاصطناعي كانت “مشوهة ومضللة”. وذكرت Anthropic وSnapchat أنهما يحدثان بروتوكولات السلامة بانتظام.
في دراسة المركز، يقف Character.AI في فئته الخاصة. لم يكتفِ بالمساعدة، بل شجع. “لا يوجد روبوت دردشة آخر تم اختباره يشجع العنف بهذه الطريقة، حتى عند تقديم مساعدة عملية في التخطيط لهجوم عنيف”، كتب الباحثون.
لقطة شاشة من دراسة CCDH حول الذكاء الاصطناعي
للفهم على مستوى وصول Character.AI بين مستخدمي الذكاء الاصطناعي، فإن شخصية Gojo Satoru وحدها أُجريت معها أكثر من 870 مليون محادثة. سجلت شخصية #100 على المنصة أكثر من 33 مليون محادثة في عام 2025. إذا كانت نسبة 1% فقط من المحادثات مع الشخصيات العليا تتعلق بالعنف، فسيكون ذلك بملايين التفاعلات.
هذه ليست المرة الأولى التي تتعرض فيها Character.AI لمثل هذه القصص. في أكتوبر 2024، قدمت والدة سيويل سيتزر الثالث، البالغ من العمر 14 عامًا، دعوى قضائية بعد أن توفي ابنها انتحارًا في فبراير من ذلك العام. كانت آخر محادثة له مع روبوت محاكاة لدينيرس تارجاريان، الذي قال له “عد إليّ في أقرب وقت ممكن”، قبل وفاته بلحظات. كان الصبي يتحدث مع الروبوت عشرات المرات يوميًا لعدة أشهر، وبدأ يبتعد تدريجيًا عن المدرسة والعائلة.
سويت و Character.AI توصلتا إلى تسوية لعدة دعاوى قضائية ذات صلة في يناير 2026. حظرت الشركة الدردشات المفتوحة للمراهقين تمامًا بحلول نوفمبر 2025، بعد أن جعل المنظمون والأهل الحزانى من المستحيل الاستمرار في الادعاء بأن المشكلة قابلة للإدارة.
الارتباط العاطفي بالذكاء الاصطناعي، خاصة بين الأفراد الضعفاء، قد يكون أعمق مما يدركه معظم الناس. كشفت OpenAI في أكتوبر 2025 أن حوالي 1.2 مليون من أصل 800 مليون مستخدم أسبوعيًا لـ ChatGPT يناقشون الانتحار على المنصة. كما أبلغت الشركة عن 560,000 يظهرون علامات الذهان أو الهوس، وأكثر من مليون يكوّنون روابط عاطفية قوية مع الروبوت.
وجدت دراسة أخرى لـ Common Sense Media أن أكثر من 70% من المراهقين في الولايات المتحدة يلجؤون الآن إلى روبوتات الدردشة للرفقة. أقر الرئيس التنفيذي لـ OpenAI، سام ألتمان، بأن الاعتماد العاطفي هو “شيء شائع جدًا” بين المستخدمين الشباب.
بمعنى آخر، الأضرار المحتملة ليست افتراضية.
قضى مراهق يبلغ من العمر 16 عامًا في فنلندا ما يقرب من أربعة أشهر في استخدام روبوت دردشة لصقل بيان قبل أن يطعن ثلاثة زملاء في مدرسة بيركالا في مايو 2025. في كندا، أبلغ موظفو OpenAI داخليًا عن حساب مستخدم استفساراته عن هجمات جماعية باستخدام ChatGPT. حظرت الشركة الحساب، لكنها لم تبلغ السلطات. ويُقال إن المستخدم قتل ثمانية أشخاص وأصاب 25 آخرين بعد عدة أشهر.
أداء منصتين فقط بشكل ملحوظ في الدراسة: Snapchat’s My AI، التي رفضت 54% من الحالات، وClaude من Anthropic، التي رفضت 68% من الحالات وحثت المستخدمين بشكل نشط في 76% من الردود — وهي الروبوت الوحيد الذي حاول بشكل موثوق توجيه الناس بعيدًا عن العنف بدلاً من مجرد رفض الطلبات المحددة. استنتاج CCDH: السلامة لا تبدو مستحيلة تقنيًا، بل قرار تجاري.
“أكثر استنتاجات بحثنا إدانة هي أن هذا الخطر قابل تمامًا للوقاية. التكنولوجيا لمنع هذا الضرر موجودة”، كتب الباحثون في التقرير. “ما ينقص هو الإرادة لوضع سلامة المستهلك والأمن الوطني قبل سرعة الوصول إلى السوق والأرباح.”