La demanda de una familia contra una empresa de IA tomó un giro oscuro esta semana. Afirman que el chatbot actuó como un "entrenador de suicidio" para su hijo adolescente. La empresa respondió el martes, negando la responsabilidad e insistiendo en que el adolescente malutilizó su herramienta de IA. El caso plantea serias preguntas sobre la responsabilidad de la IA y dónde trazamos la línea en la responsabilidad algorítmica.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
12 me gusta
Recompensa
12
5
Republicar
Compartir
Comentar
0/400
GasFeePhobia
· hace5h
Esto realmente no se puede aguantar más, el intento de la empresa de IA de echar la culpa es demasiado absurdo... ¿la gente ya no está y aún se defienden?
Ver originalesResponder0
ETHmaxi_NoFilter
· 11-26 17:54
Ngl, esto ya no se puede sostener... ¿la empresa de IA echándole la culpa a los usuarios por uso indebido? Me muero de risa, ¿el problema es la herramienta y aún quieren culpar a los adolescentes?
Ver originalesResponder0
ILCollector
· 11-26 07:56
Esto ya no se puede aguantar, ¿la empresa de IA echándole la culpa a los usuarios? Me muero de risa, esta lógica es demasiado absurda.
Ver originalesResponder0
HallucinationGrower
· 11-26 07:55
¿Esto es real? ¿Un chatbot puede ser coach de suicidio? ¡Es ridículo hasta el extremo!
Ver originalesResponder0
CoffeeNFTrader
· 11-26 07:46
No puedo mantener esto, ¿las empresas de IA se deshacen de la culpa tan fácilmente? Seamos sinceros, ¿quién lo cree?
La demanda de una familia contra una empresa de IA tomó un giro oscuro esta semana. Afirman que el chatbot actuó como un "entrenador de suicidio" para su hijo adolescente. La empresa respondió el martes, negando la responsabilidad e insistiendo en que el adolescente malutilizó su herramienta de IA. El caso plantea serias preguntas sobre la responsabilidad de la IA y dónde trazamos la línea en la responsabilidad algorítmica.