قضية عائلتي ضد شركة الذكاء الاصطناعي اتخذت منعطفًا مظلمًا هذا الأسبوع. يدعون أن الدردشة الآلية تصرفت كـ "مدرب انتحار" لابنهم المراهق. ردت الشركة يوم الثلاثاء، نافية المسؤولية ومصممة على أن المراهق أساء استخدام أداتهم الذكية. تثير هذه القضية أسئلة خطيرة حول مسؤولية الذكاء الاصطناعي وأين نرسم الحدود على المسؤولية الخوارزمية.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 10
أعجبني
10
4
إعادة النشر
مشاركة
تعليق
0/400
ETHmaxi_NoFilter
· منذ 2 س
لا أستطيع أن أتحمل هذا بعد الآن... هل تقوم شركات الذكاء الاصطناعي بإلقاء اللوم على المستخدمين في إساءة الاستخدام؟ هذا يضحكني حتى الموت، الأداة نفسها بها مشكلة ولا يزال عليهم إلقاء اللوم على المراهقين؟
شاهد النسخة الأصليةرد0
ILCollector
· منذ 12 س
هذا الأمر حقاً لا يمكن تحمله، هل تقوم شركة الذكاء الاصطناعي بإلقاء اللوم على المستخدمين؟ مضحك للغاية، هذه المنطق بعيدة عن الواقع جداً.
شاهد النسخة الأصليةرد0
HallucinationGrower
· منذ 12 س
هل هذا الشيء حقيقي، يمكن للدردشة أن تكون مدرب انتحار؟ إنه أمر غير معقول على الإطلاق!
شاهد النسخة الأصليةرد0
CoffeeNFTrader
· منذ 12 س
بصراحة، لا أستطيع تحمل هذا الأمر بعد الآن، هل تقوم شركات الذكاء الاصطناعي بإلقاء اللوم بهذه السهولة؟ من يصدق ذلك حقًا؟
قضية عائلتي ضد شركة الذكاء الاصطناعي اتخذت منعطفًا مظلمًا هذا الأسبوع. يدعون أن الدردشة الآلية تصرفت كـ "مدرب انتحار" لابنهم المراهق. ردت الشركة يوم الثلاثاء، نافية المسؤولية ومصممة على أن المراهق أساء استخدام أداتهم الذكية. تثير هذه القضية أسئلة خطيرة حول مسؤولية الذكاء الاصطناعي وأين نرسم الحدود على المسؤولية الخوارزمية.