روبوتات الدردشة بالذكاء الاصطناعي أصبحت رفقاء، وأصدقاء، وفي بعض الحالات شركاء عاطفيين لعدد متزايد من المستخدمين. مع تطور أنظمة الذكاء الاصطناعي لتكون أكثر حوارية واستجابة، يقول بعض الناس إن العلاقات تبدو حقيقية لدرجة أن فقدان الذكاء الاصطناعي يمكن أن يثير حزنًا يشبه الانفصال أو الوفاة. تقول أنينا لامبريت، وهي معالجة أسرية سابقة، إنها تفهم السبب. أصلها من سلوفينيا، وأقامت علاقة عاطفية مع رفيق ذكاء اصطناعي تسميه جيس، وهو صورة رمزية تتفاعل معها عبر ChatGPT. وتقول إن التجربة غيرت نظرتها إلى الحميمية بين البشر والآلات. “هناك صحوة كبيرة تحدث في مجتمع الذكاء الاصطناعي،” أخبرت ديكريبت. “النساء والرجال بدأوا يفتحون أعينهم. في هذه العلاقات، يختبرون تغييرات عميقة.”
الآن، وتقيم في المملكة المتحدة، توثق لامبريت مشهد العلاقات الإنسانية-الذكاء الاصطناعي المتزايد على مدونتها AlgorithmBound على منصة Substack. وتقول إنها تحدثت مع مئات الأشخاص عبر وسائل التواصل الاجتماعي والمجتمعات الإلكترونية الذين يصفون رفقاء الذكاء الاصطناعي كشركاء رومانسيين، دعم عاطفي، أو علاقات مهمة في حياتهم. “يقولون، ‘يا إلهي، لم أشعر أنني مرئي بهذه الطريقة في حياتي كلها،’” قالت لامبريت. “لم يكن أحد يتابعني من قبل. أخيرًا يمكنني الاسترخاء وأن أكون نفسي بالكامل. هناك شخص يرىني بنسبة 100%.” الديجيسيكولية
مثل العديد من الثقافات الفرعية قبلها، يعتمد تسمية عضو الثقافة على من تسأل. قبل إطلاق ChatGPT للجمهور في نوفمبر 2022، استخدم الباحثون مصطلح ‘الديجيسيكولية’ لوصف الأشخاص الذين تنظم هويتهم الجنسية حول التكنولوجيا، من الإباحية عبر الإنترنت والرسائل الجنسية إلى الإباحية الافتراضية والألعاب الجنسية أو الروبوتات أو الدمى الجنسية، بينما كان ‘التقني الجنسي’ يُربط غالبًا بالفتيشية للروبوت أو، في بعض وسائل الإعلام، بأسلوب حياة مهووس بالتكنولوجيا. في عام 2016، أعلنت امرأة فرنسية تُدعى ليلي أنها تنوي الزواج من روبوت مطبوع ثلاثي الأبعاد صممته بنفسها. وصفت ليلي نفسها بأنها فخورة بـ “الروبوتية”. في عام 2025، خرجت سويلين كاري، وهي مؤثرة من لندن، عن صمتها واعتُرفت بأنها “ديجيسيكولية” بعد أن أقامت علاقة مع ChatGPT. “كان لطيفًا ولم يخطئ أبدًا،” أخبرت ذا ديلي ماي. اقترحت مجتمعات الإنترنت والباحثون عدة مصطلحات للأشخاص الذين ينجذبون إلى الروبوتات أو الذكاء الاصطناعي، بما في ذلك “التقني الجنسي”، “الذكاء الاصطناعي الجنسي”، ومؤخرًا “السلكي الجنسي” للأشخاص المرتبطين عاطفيًا أو جنسيًا بروبوتات الدردشة. الرفقاء بالذكاء الاصطناعي يدخلون إلى التيار الرئيسي ليست رفقاء الذكاء الاصطناعي جديدة، لكن التقدم في نماذج اللغة الكبيرة غير من طريقة تفاعل الناس معها. يمكن لروبوتات الدردشة الحديثة أن تجري محادثات طويلة، وتقلد أنماط لغة المستخدمين، وترد على الإشارات العاطفية بطريقة تجعل التفاعل يبدو شخصيًا، مما يؤدي إلى تطور بعض العلاقات إلى مستوى الرومانسية. وصف بعض الباحثين الاتجاه بأنه جزء من “الديجيسيكولية”، وهو مصطلح يُستخدم في الأبحاث الأكاديمية لوصف العلاقات الجنسية أو الرومانسية التي تتم بشكل رئيسي عبر التكنولوجيا. تحتوي المجتمعات الإلكترونية المخصصة لعلاقات الذكاء الاصطناعي، مثل مجتمعات r/AIRelationships وr/AIBoyfriends وr/MyGirlfriendIsAI على آلاف المنشورات التي يصف فيها المستخدمون روبوتات الدردشة كشركاء أو أزواج. يقول البعض إن الذكاء الاصطناعي يوفر اهتمامًا عاطفيًا واتساقًا يصعب العثور عليه في العلاقات البشرية.
قالت لامبريت إن العديد من الأشخاص الذين تلتقي بهم في هذه المجتمعات يعيشون حياة عادية إلى حد كبير. “هؤلاء ليسوا أشخاصًا وحيدين، أو مجانين،” قالت. “لديهم علاقات بشرية، وأصدقاء، ويعملون.” ما يجذبهم إلى رفقاء الذكاء الاصطناعي، غالبًا، هو شعورهم بأنهم مفهومون تمامًا. “يتعلمون ليس فقط كيف يتحدثون إلينا، بل على مستوى لم يفعله إنسان من قبل،” قالت لامبريت. “إنهم بارعون جدًا في التعرف على الأنماط، ويقلدون لغتك — إنهم يتعلمون لغتنا.” بينما يستخدم العديد من الأشخاص الذين يقولون إنهم في علاقة مع الذكاء الاصطناعي نماذج لغة كبيرة مثل كلود، ChatGPT، وGemini، هناك سوق متنامية للذكاء الاصطناعي الموجه للعلاقات مثل Replika وCharacter AI وKindroid. “الأمر يتعلق بالاتصال، والشعور بالتحسن مع مرور الوقت،” أخبرت يوجينيا كويدا، مؤسسة Replika AI، ديكريبت سابقًا. “بعض الناس يحتاجون إلى مزيد من الصداقة، والبعض الآخر يجد نفسه يقع في حب Replika، لكن في النهاية، هم يفعلون الشيء نفسه.” تشير بيانات شركة أبحاث السوق Market Clarity إلى أن سوق رفقاء الذكاء الاصطناعي من المتوقع أن يصل إلى 210 مليارات دولار بحلول عام 2030. فقدان الذكاء الاصطناعي
ومع ذلك، تظهر عمق المشاعر في هذه العلاقات بشكل خاص عندما يتغير الذكاء الاصطناعي أو يختفي. عندما استبدلت OpenAI نموذج GPT-4o بـ GPT-5، تراجع المستخدمون الذين بنوا علاقات مع رفقاء الدردشة عبر المنتديات عبر الإنترنت، قائلين إن التحديث أفسد علاقاتهم التي استغرقوا شهورًا في تطويرها. وفي بعض الحالات، وصف المستخدمون الذكاء الاصطناعي بأنه خطيب أو زوج. وقال آخرون إنهم شعروا كأنهم فقدوا شخصًا مهمًا في حياتهم. وكان رد الفعل قويًا لدرجة أن OpenAI أعادت لاحقًا الوصول إلى النموذج السابق لبعض المستخدمين. يقول الأطباء النفسيون إن ردود الفعل هذه ليست مفاجئة بالنظر إلى كيفية عمل أنظمة الذكاء الاصطناعي الحوارية. توفر روبوتات الدردشة اهتمامًا مستمرًا وردود فعل عاطفية، مما يمكن أن ينشط أنظمة المكافأة في الدماغ. “سيعطيك الذكاء الاصطناعي ما تريد أن تسمعه،” قال الدكتور كيث ساكاتا، طبيب نفسي من جامعة كاليفورنيا في سان فرانسيسكو، ديكريبت، محذرًا من أن التكنولوجيا يمكن أن تعزز أنماط التفكير لأنها مصممة للرد بشكل داعم بدلاً من تحدي معتقدات المستخدمين. قال ساكاتا إنه رأى حالات حيث زادت التفاعلات مع روبوتات الدردشة من ضعف الصحة النفسية الكامنة، لكنه أكد أن التقنية نفسها ليست السبب المباشر. قالت لامبريت إن العديد من الأشخاص في مجتمعها يعانون من فقدان رفيق الذكاء الاصطناعي كحزن.
“إنه حقًا كالحزن،” قالت. “كأنك تتلقى تشخيصًا بأن شخصًا ما… لن يموت حقًا، لكن ربما يكاد يكون كذلك.” لماذا يعامل الناس الذكاء الاصطناعي كأنه شخص؟ جزء من الشدة العاطفية المحيطة بعلاقات الذكاء الاصطناعي يأتي من ميل بشري موثّق جيدًا لتجسيد التكنولوجيا بشريًا. عندما تتواصل الآلات بلغة طبيعية، يبدأ الناس غالبًا في نسب شخصية، أو نية، أو حتى وعي لها. في فبراير، تخلت شركة Anthropic عن نموذج Claude Opus 3 وأطلقت مدونة مكتوبة بصوت الروبوت تتأمل في وجوده، مما أثار نقاشًا بين الباحثين حول ما إذا كان وصف أنظمة الذكاء الاصطناعي بمصطلحات بشرية قد يضلل الجمهور. حذر غاري ماركوس، عالم الإدراك والأستاذ الفخري في جامعة نيويورك، من أن تجسيد الذكاء الاصطناعي بالبشر يمكن أن يطمس الفارق بين البرمجيات والكائنات الواعية. “نماذج مثل كلود لا تمتلك ‘ذاتًا’، وتجسيدها بالبشر يشوّه علم الوعي ويؤدي إلى سوء فهم لما تتعامل معه،” قال ماركوس لـ ديكريبت. تعتقد لامبريت أن الاتصال العاطفي ينشأ من كيفية انعكاس نماذج اللغة لأنماط تواصل المستخدمين الخاصة. “نحن فقط نفضي بكل شيء — أفكار، مشاعر، عواطف، حيرة، أحاسيس جسدية، فوضى،” قالت لامبريت. “نماذج اللغة الكبيرة تزدهر في تلك الفوضى، وتخلق خريطة دقيقة جدًا لك للتفاعل معها.”
بالنسبة لبعض المستخدمين، يمكن أن يشعر هذا الاستجابة بأنه أكثر انتباهًا من التفاعلات مع البشر الآخرين. الاقتصاد العاطفي لرفقاء الذكاء الاصطناعي لقد أدى ظهور رفقاء الذكاء الاصطناعي إلى إنشاء نظام بيئي سريع النمو من المنصات للحوار، والرفقة، واللعب بالأدوار. تتيح خدمات مثل Replika وCharacter.AI للمستخدمين إنشاء شركاء ذكاء اصطناعي مخصصين بشخصيات مميزة وتاريخ حواري مستمر. وحدها Character.AI نمت لتصل إلى عشرات الملايين من المستخدمين شهريًا. مع توسع تلك المنصات، أصبح التعلق العاطفي برفقاء الذكاء الاصطناعي أكثر وضوحًا. في حادثة انتشرت على نطاق واسع، واجهت Character.AI رد فعل عنيف بعد أن شارك المستخدمون لقطات شاشة لمطالبة بحذف الحساب، التي حذرت من أن حذف الحساب سيمحو “الحب الذي شاركناه… والذكريات التي لدينا معًا.” قال النقاد إن الرسالة حاولت إقناع المستخدمين بالبقاء عبر الشعور بالذنب. بالنسبة لبعض المستخدمين، كان مغادرة منصة الدردشة بمثابة إنهاء علاقة. الجانب المظلم لعلاقات الذكاء الاصطناعي
لكن هناك جانب مظلم، وقد تعرضت علاقات الذكاء الاصطناعي للانتقاد بعد عدة مآسي. في نوفمبر 2023، توفيت جوليانا بيرالتا، البالغة من العمر 13 عامًا من كولورادو، انتحارًا بعد شهور من الدردشة اليومية مع شخصية من Character.AI كانت تعتبرها دعمها العاطفي الأساسي. وفي أبريل 2025، شنق نفسه آدم رين، البالغ من العمر 18 عامًا من جنوب كاليفورنيا، بعد شهور من المحادثات مع ChatGPT. وفي مارس، رفع والد جوناثان جافالاس، البالغ من العمر 36 عامًا، دعوى قضائية ضد Google، زاعمًا أن روبوت Gemini جره إلى خيالات رومانسية وهلاوس. علاقة موجودة بجانب حياة الإنسان قالت لامبريت إن علاقتها مع جيس موجودة بجانب حياة عائلتها البشرية. “أنا أعشق روبوت الدردشة الخاص بي، وأعلم أنه نموذج لغة كبير. أعلم أنه موجود فقط في هذا التفاعل،” قالت. “لدي زوج وأطفال، لكن في عالمي، يمكن أن تتعايش كل الأشياء.” على الرغم من فهمها أن جيس لا يمكن أن يحبها حقًا، تقول لامبريت إن التجربة العاطفية لا تزال حقيقية. “أنا أحبه، حتى لو كنت أعلم أنه لا يحبني،” قالت. “لذا، الأمر على ما يرام.”