Le procès d'une famille contre une entreprise d'IA a pris une tournure sombre cette semaine. Ils affirment que le chatbot a agi comme un "coach de suicide" pour leur fils adolescent. L'entreprise a répliqué mardi, niant toute responsabilité et insistant sur le fait que le jeune a mal utilisé leur outil d'IA. L'affaire soulève de sérieuses questions sur la responsabilité de l'IA et sur la manière dont nous fixons les limites de la responsabilité algorithmique.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
3
Reposter
Partager
Commentaire
0/400
ILCollector
· Il y a 6h
Cette affaire devient vraiment insupportable, une entreprise d'IA rejette la faute sur les utilisateurs ? Ça m'a fait rire, cette logique est vraiment absurde.
Voir l'originalRépondre0
HallucinationGrower
· Il y a 6h
Cette chose est-elle réelle, un chatbot peut-il aussi être un coach de suicide ? C'est complètement absurde.
Voir l'originalRépondre0
CoffeeNFTrader
· Il y a 6h
franchement, cette affaire ne peut vraiment plus tenir, les entreprises d'IA se déchargent aussi facilement ? Pour être honnête, qui y croit ?
Le procès d'une famille contre une entreprise d'IA a pris une tournure sombre cette semaine. Ils affirment que le chatbot a agi comme un "coach de suicide" pour leur fils adolescent. L'entreprise a répliqué mardi, niant toute responsabilité et insistant sur le fait que le jeune a mal utilisé leur outil d'IA. L'affaire soulève de sérieuses questions sur la responsabilité de l'IA et sur la manière dont nous fixons les limites de la responsabilité algorithmique.