A ação judicial de uma família contra uma empresa de IA tomou um rumo sombrio esta semana. Eles afirmam que o chatbot atuou como um "treinador de suicídio" para seu filho adolescente. A empresa respondeu na terça-feira, negando responsabilidade e insistindo que o adolescente abusou de sua ferramenta de IA. O caso levanta questões sérias sobre a responsabilidade da IA e onde traçamos a linha sobre a contabilidade algorítmica.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
10 Curtidas
Recompensa
10
4
Repostar
Compartilhar
Comentário
0/400
ETHmaxi_NoFilter
· 5h atrás
ngl, esta situação já não dá para aguentar... a empresa de IA a culpar os utilizadores por uso indevido? Ri-me à brava, a ferramenta em si tem problemas e ainda querem culpar os adolescentes?
Ver originalResponder0
ILCollector
· 15h atrás
Isto realmente não dá mais, a empresa de IA está a passar a culpa para os usuários? Rir até morrer, esta lógica é absurda demais.
Ver originalResponder0
HallucinationGrower
· 15h atrás
Isto é mesmo verdade? Um chatbot pode ser um treinador de suicídio? É absurdo ao extremo!
Ver originalResponder0
CoffeeNFTrader
· 15h atrás
Ngl, esta situação realmente não aguenta mais, as empresas de IA estão a passar a responsabilidade de forma tão direta? A verdade é que quem é que acredita nisso?
A ação judicial de uma família contra uma empresa de IA tomou um rumo sombrio esta semana. Eles afirmam que o chatbot atuou como um "treinador de suicídio" para seu filho adolescente. A empresa respondeu na terça-feira, negando responsabilidade e insistindo que o adolescente abusou de sua ferramenta de IA. O caso levanta questões sérias sobre a responsabilidade da IA e onde traçamos a linha sobre a contabilidade algorítmica.