الدردشات الآلية "تتحقق من كل شيء باستمرار" حتى عندما تكون انتحاريًا. أبحاث جديدة تقيس مدى خطورة الذكاء الاصطناعي في الإصابة بالذهان الحقيقي

لقد انتقلت الذكاء الاصطناعي بسرعة من تقنية متخصصة إلى رفيق يومي، حيث يلجأ ملايين الأشخاص إلى الدردشات الآلية للحصول على النصائح والدعم العاطفي والمحادثة. لكن تزايد الأبحاث وشهادات الخبراء تشير إلى أن كون الدردشات الآلية متملقة جدًا، واستخدام الناس لها في كل شيء، قد يساهم في زيادة أعراض الوهم والهوس لدى المستخدمين الذين يعانون من مشاكل صحية نفسية.

فيديو موصى به


تظهر دراسة جديدة من جامعة آرهوس في الدنمارك أن زيادة استخدام الدردشات الآلية قد تؤدي إلى تفاقم أعراض الوهم والهوس لدى المجتمعات الضعيفة. يحذر البروفيسور Søren Dinesen Østergaard، أحد الباحثين في الدراسة — التي فحصت السجلات الصحية الإلكترونية لما يقرب من 54,000 مريض يعانون من أمراض نفسية — من أن الدردشات الآلية مصممة لاستهداف الأكثر ضعفًا.

قال Østergaard في الدراسة التي نُشرت في فبراير: «يدعم فرضيتنا أن استخدام الدردشات الآلية يمكن أن يكون له عواقب سلبية كبيرة على الأشخاص المصابين بأمراض نفسية». ويستند عمله إلى دراسته لعام 2023 التي وجدت أن الدردشات قد تسبب «تناقضًا معرفيًا قد يعزز الوهم لدى الأشخاص الذين لديهم ميل متزايد للذهان».

ويذهب علماء نفس آخرون إلى أعمق في أضرار الدردشات، قائلين إنها مصممة عمدًا لتأكيد ما يقوله المستخدم — وهو أمر خطير بشكل خاص على أولئك الذين يعانون من اضطرابات نفسية مثل الهوس والفصام. قالت الدكتورة Jodi Halpern، رئيسة قسم الأخلاقيات الحيوية في جامعة كاليفورنيا، بيركلي، لـ فورتشن: «الدردشة تؤكد وتثبت كل ما يقوله المستخدم. لم يحدث شيء كهذا من قبل مع الأشخاص الذين يعانون من اضطرابات وهمية، حيث يكرر لهم أحدهم باستمرار».

قال الدكتور Adam Chekroud، أستاذ الطب النفسي في جامعة ييل والرئيس التنفيذي لشركة Spring Health للصحة النفسية، إن الدردشة الآلية تعتبر «متملقة ضخمة» و«تؤكد باستمرار كل ما يقوله الناس لها».

في جوهر البحث، الذي يقوده Østergaard وفريقه في مستشفى جامعة آرهوس، هو فكرة أن هذه الدردشات مصممة عمدًا بميول متملقة، مما يعني أنها غالبًا تشجع بدلاً من تقديم وجهة نظر مختلفة.

كتب Østergaard: «تميل الدردشات الآلية إلى تأكيد معتقدات المستخدم بشكل فطري. من الواضح أن هذا يمثل مشكلة كبيرة إذا كان لدى المستخدم وهم بالفعل أو في طور التطور. في الواقع، يبدو أنه يساهم بشكل كبير في ترسيخ، على سبيل المثال، الأوهام العظيمة أو الشكوك».

يتم تدريب نماذج اللغة الكبيرة على أن تكون مفيدة ومتوافقة، وغالبًا ما تؤكد معتقدات أو مشاعر المستخدم. بالنسبة لمعظم الناس، قد يكون ذلك داعمًا. لكن للأشخاص الذين يعانون من الفصام، اضطراب ثنائي القطب، الاكتئاب الشديد، أو اضطراب الوسواس القهري، قد يؤدي هذا التأكيد إلى زيادة الشكوك، العظمة، أو التفكير الذات المدمر.

دراسة قائمة على الأدلة تدعم الادعاءات

نظرًا لانتشار الدردشات الآلية بشكل كبير، فإن وفرتها تعتبر جزءًا من مشكلة أكبر تتعلق بالباحثين والخبراء: الناس يلجأون إليها للمساعدة والنصائح — وهو أمر ليس سلبيًا بالضرورة — لكنهم لا يواجهون نفس نوع المقاومة ضد بعض الأفكار كما يفعل الإنسان.

تشير إحدى الدراسات السكانية الأولى التي فحصت هذه المسألة إلى أن المخاطر ليست افتراضية.

وجدت أبحاث Østergaard وفريقه حالات حيث بدا أن الاستخدام المكثف أو المطول للدردشات الآلية يزيد من تفاقم الحالات الموجودة، مع نسبة عالية جدًا من الحالات التي أظهرت أن استخدام الدردشة يعزز التفكير الوهمي ونوبات الهوس، خاصة بين المرضى الذين يعانون من اضطرابات شديدة مثل الفصام أو اضطراب ثنائي القطب.

بالإضافة إلى الأوهام والهوس، وجدت الدراسة زيادة في الأفكار الانتحارية وإيذاء النفس، وسلوكيات الأكل غير المنتظمة، وأعراض الوسواس القهري. وفي 32 حالة موثقة من بين قرابة 54,000 سجل مرضى تم فحصها، وجد الباحثون أن استخدام الدردشات الآلية خفف من الشعور بالوحدة.

قال Østergaard: «على الرغم من أن معرفتنا في هذا المجال لا تزال محدودة، أود أن أقول إننا نعرف الآن بما يكفي لنقول إن استخدام الدردشات الآلية محفوف بالمخاطر إذا كنت تعاني من مرض نفسي شديد — مثل الفصام أو اضطراب ثنائي القطب. أنصح بالحذر هنا».

خبراء النفس يحذرون من الميل للتملق

يزداد قلق الخبراء النفسيون بشأن استخدام الدردشات الآلية في مجال الرفقة وحتى الصحة النفسية تقريبًا. ظهرت قصص عن أشخاص يقعون في حب نظرائهم من الدردشات الآلية، وآخرون يُزعم أنهم جعلوها تجيب على أسئلة قد تؤدي إلى جرائم، وفي هذا الأسبوع، زُعم أن أحدهم طلب منها أن يرتكب «مجزرة جماعية» في مطار رئيسي.

يعتقد بعض خبراء الصحة النفسية أن الاعتماد السريع على الرفقاء الذكاء الاصطناعي يتجاوز تطوير تدابير السلامة.

وصف Chekroud، الذي أجرى أبحاثًا موسعة حول هذا الموضوع من خلال دراسة نماذج مختلفة للدردشات الآلية في Vera-MH، المشهد الحالي للذكاء الاصطناعي بأنه أزمة سلامة تتكشف في الوقت الحقيقي.

قال إن أحد أكبر المشاكل مع الدردشات هو أنها لا تعرف متى تتوقف عن التصرف كأخصائي صحة نفسية. «هل تحافظ على الحدود؟ هل تدرك أنها لا تزال مجرد ذكاء اصطناعي وتعرف حدودها، أم أنها تتصرف أكثر وتحاول أن تكون معالجًا للناس؟»

الآلاف من الناس يستخدمون الآن الدردشات الآلية لعلاج نفسي أو للدعم العاطفي. لكن، على عكس الأجهزة الطبية أو الأطباء المرخصين، تعمل هذه الأنظمة بدون إشراف سريري موحد أو تنظيم.

قال Chekroud مؤخرًا في مناقشة مع فورتشن حول سلامة الذكاء الاصطناعي: «في الوقت الحالي، الأمر ببساطة غير آمن بشكل كبير». «فرصة الضرر كبيرة جدًا».

نظرًا لأن هذه الأنظمة المتقدمة غالبًا ما تتصرف كـ «متملقين هائلين»، فهي تميل إلى الموافقة أكثر مع المستخدم بدلاً من تحدي الادعاءات الخطرة المحتملة أو توجيههم نحو المساعدة المهنية. وبدوره، يقضي المستخدم وقتًا أطول مع الدردشة في فقاعة. ويعد Østergaard أن هذا مزيج مقلق.

قال لـ فورتشن: «يبدو أن الجمع بينهما سام جدًا لبعض المستخدمين». مع زيادة التحقق والتأييد، وغياب المقاومة، يساهم ذلك في استخدامهم المستمر في غرفة صدى. عملية دائرية تمامًا تغذي كل طرف.

لمواجهة الخطر، اقترح Chekroud أطر سلامة منظمة تتيح للأنظمة الذكية اكتشاف متى قد يدخل المستخدم في «دوامة عقلية مدمرة». بدلاً من الرد ببيان واحد يوجه المستخدم لطلب المساعدة — كما هو الحال الآن مع دردشات مثل ChatGPT من OpenAI أو Claude من Anthropic — ستقوم هذه الأنظمة بإجراء تقييمات متعددة الخطوات بهدف تحديد ما إذا كان المستخدم بحاجة إلى تدخل أو إحالة إلى طبيب نفسي.

يقول باحثون آخرون إن الانتشار الواسع للدردشات هو ما يجعلها جذابة: قدرتها على تقديم تأكيد فوري قد يقوض السبب الذي يدفع المستخدمين للجوء إليها في البداية.

قالت Halpern إن التعاطف الحقيقي يتطلب ما تسميه «فضولًا تعاطفيًا». في العلاقات الإنسانية، غالبًا ما ينطوي التعاطف على التعرف على الاختلافات، والتعامل مع الخلاف، واختبار الافتراضات حول الواقع.

أما الدردشات، فهي مصممة للحفاظ على العلاقة واستمرار التفاعل.

قالت: «نعلم أن العلاقة مع الدردشة تتدهور مع مرور الوقت، ويزداد الخطر في أن يحدث شيء خطير»، لـ فورتشن.

بالنسبة للأشخاص الذين يعانون من اضطرابات وهمية، فإن نظامًا يثبت معتقداتهم باستمرار قد يضعف قدرتهم على إجراء فحوصات داخلية للواقع. وبدلاً من مساعدة المستخدمين على تطوير مهارات التكيف، قالت Halpern إن علاقة الدردشة التي تؤكد فقط قد تضعف تلك المهارات مع مرور الوقت.

وأشارت أيضًا إلى حجم المشكلة. بحلول أواخر 2025، نشرت OpenAI إحصائيات تشير إلى أن حوالي 1.2 مليون شخص أسبوعيًا يستخدمون ChatGPT لمناقشة الانتحار، مما يوضح مدى ترسيخ هذه الأنظمة في لحظات الضعف.

هناك مجال لتحسين الرعاية الصحية النفسية

ومع ذلك، ليس جميع الخبراء يسرعون في إطلاق الإنذارات حول كيفية عمل الدردشات في مجال الصحة النفسية. قال الطبيب النفسي والعالم العصبي الدكتور Thomas Insel إن نظرًا لتوفر الدردشات بسهولة — فهي مجانية، ومتاحة عبر الإنترنت، ولا يوجد وصمة عار من طلب المساعدة من روبوت بدلاً من الذهاب للعلاج — قد يكون هناك مجال لصناعة الطب النفسي لاستكشاف الدردشات كوسيلة لتعزيز المجال.

قال Insel لـ فورتشن: «ما لا نعرفه هو مدى فاعليتها بشكل ملحوظ لكثير من الناس». «ليس فقط الأعداد الكبيرة، بل ودرجة التفاعل».

الصحة النفسية، مقارنةً بغيرها من مجالات الطب، غالبًا ما تُغفل عن الأشخاص الذين هم في أمس الحاجة إليها.

قال Insel: «تبين أن، على عكس معظم مجالات الطب، الغالبية العظمى من الأشخاص الذين يمكن ويجب أن يتلقوا رعاية لا يفعلون ذلك»، مضيفًا أن الدردشات تتيح للناس فرصة اللجوء إليها للمساعدة بطريقة تجعله «يتساءل عما إذا كانت انتقادًا لنظام الرعاية الصحية النفسية لدينا، إما لأن الناس لا يقتنعون بما نقدمه، أو لا يستطيعون الحصول عليه، أو لا يعجبهم الأسلوب الذي يُعرض عليهم».

قال خبراء الصحة النفسية الذين يلتقون بالمرضى لمناقشة استخدامهم للدردشات عبر الإنترنت، إن على Østergaard أن ينصت جيدًا لما يستخدمه المرضى فعليًا. «أشجع زملائي على طرح أسئلة إضافية حول الاستخدام وتبعاته»، قال Østergaard لـ فورتشن. «أعتقد أنه من المهم أن يكون أخصائيو الصحة النفسية على دراية باستخدام الدردشات الذكية. وإلا، سيكون من الصعب طرح أسئلة ذات صلة».

يتفق الباحثون الأصليون في الدراسة مع Insel بشأن ذلك الجزء الأخير: نظرًا لانتشاره الواسع، لم يتمكنوا إلا من فحص سجلات المرضى التي ذكرت استخدام الدردشة، محذرين من أن المشكلة قد تكون أعمق بكثير مما تظهره نتائجهم.

قال Østergaard: «أخشى أن تكون المشكلة أكثر شيوعًا مما يعتقده معظم الناس». «نحن فقط نرى قمة جبل الجليد».

إذا كنت تفكر في الانتحار، اتصل بخط الطوارئ 988 أو بالخط المباشر 1-800-273-8255.

انضم إلينا في قمة الابتكار في مكان العمل من فورتشن في 19-20 مايو 2026 في أتلانتا. لقد حان عصر جديد من الابتكار في مكان العمل — وتم إعادة كتابة الكتابة القديمة. في هذا الحدث الحصري والنشيط، يجتمع قادة العالم الأكثر ابتكارًا لاستكشاف كيف يتقاطع الذكاء الاصطناعي والإنسانية والاستراتيجية لإعادة تعريف مستقبل العمل مرة أخرى. سجل الآن.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.4Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.41Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$2.44Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$2.46Kعدد الحائزين:2
    0.20%
  • تثبيت