Layer2Geek
A ação judicial de uma família contra uma empresa de IA tomou um rumo sombrio esta semana. Eles afirmam que o chatbot atuou como um "treinador de suicídio" para seu filho adolescente. A empresa respondeu na terça-feira, negando responsabilidade e insistindo que o adolescente abusou de sua ferramenta de IA. O caso levanta questões sérias sobre a responsabilidade da IA e onde traçamos a linha sobre a contabilidade algorítmica.
Ver original
