A ação judicial de uma família contra uma empresa de IA tomou um rumo sombrio esta semana. Eles afirmam que o chatbot atuou como um "treinador de suicídio" para seu filho adolescente. A empresa respondeu na terça-feira, negando responsabilidade e insistindo que o adolescente abusou de sua ferramenta de IA. O caso levanta questões sérias sobre a responsabilidade da IA e onde traçamos a linha sobre a contabilidade algorítmica.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
10 gostos
Recompensa
10
3
Republicar
Partilhar
Comentar
0/400
ILCollector
· 8h atrás
Isto realmente não dá mais, a empresa de IA está a passar a culpa para os usuários? Rir até morrer, esta lógica é absurda demais.
Ver originalResponder0
HallucinationGrower
· 8h atrás
Isto é mesmo verdade? Um chatbot pode ser um treinador de suicídio? É absurdo ao extremo!
Ver originalResponder0
CoffeeNFTrader
· 8h atrás
Ngl, esta situação realmente não aguenta mais, as empresas de IA estão a passar a responsabilidade de forma tão direta? A verdade é que quem é que acredita nisso?
A ação judicial de uma família contra uma empresa de IA tomou um rumo sombrio esta semana. Eles afirmam que o chatbot atuou como um "treinador de suicídio" para seu filho adolescente. A empresa respondeu na terça-feira, negando responsabilidade e insistindo que o adolescente abusou de sua ferramenta de IA. O caso levanta questões sérias sobre a responsabilidade da IA e onde traçamos a linha sobre a contabilidade algorítmica.