A ChatGPT foi utilizada para ajudar um crime no tiroteio na Flórida, e o procurador-geral anuncia uma investigação à OpenAI

ChainNewsAbmedia

O fornecedor de inteligência artificial OpenAI enfrenta recentemente uma importante crise legal e regulatória. O procurador-geral do estado da Flórida, James Uthmeier, afirmou que vai abrir uma investigação à OpenAI, para esclarecer se os seus produtos, incluindo o ChatGPT, causam danos a menores, ameaçam a segurança nacional e se desempenharam um papel na assistência ao crime no caso do tiroteio no campus da Florida State University (FSU) em 2025. Em paralelo, os familiares das vítimas do tiroteio estão também a preparar-se para avançar com uma acção judicial contra a empresa.

OpenAI envolvida no caso de tiroteio no campus da universidade da Flórida; o procurador-geral inicia uma investigação

O procurador-geral da Flórida, Uthmeier, divulgou um vídeo nas redes sociais, dizendo que o ChatGPT é muito provavelmente utilizado para ajudar o autor do crime a planear o grande tiroteio ocorrido no ano passado no campus da Florida State University, na Flórida, que infelizmente ceifou duas vidas.

Ele salientou que, enquanto os gigantes da tecnologia impulsionam a inovação, não podem colocar a segurança do público em risco, nem têm o direito de prejudicar crianças, facilitar actividades criminosas, reforçar a força de forças hostis dos EUA, ou ameaçar a segurança nacional. O procurador-geral afirmou que vai emitir intimações e apelou ao poder legislativo da Flórida para tomar medidas rapidamente, a fim de prevenir os impactos negativos trazidos pela inteligência artificial.

O suspeito do tiroteio teria perguntado repetidamente ao ChatGPT; os familiares das vítimas pretendem processar

Ao recordar o caso do tiroteio na FSU em Abril de 2025, o antigo estudante de 21 anos Phoenix Ikner disparou no campus, causando 2 mortes e 6 feridos; posteriormente, o suspeito foi acusado por um grande júri, enfrentando várias acusações, incluindo homicídio em primeiro grau, e um pedido de pena de morte.

Os registos do tribunal mostram que a conta de Ikner tinha até 272 registos de conversas com o ChatGPT. Alega-se que, antes do incidente, ele tinha perguntado à IA sobre as reacções que poderiam surgir em todo o país ao tiroteio na FSU e sobre a hora do dia em que as multidões de estudantes no local mais movimentado seriam mais densas.

Entre as vítimas que morreram no incidente estava o falecido Robert Morales, de 57 anos. O advogado por ele mandatado indicou que o suspeito manteve um contacto estreito com o ChatGPT antes do caso e que a família tem razões para acreditar que a IA forneceu conselhos para a prática do crime; neste momento, está a preparar-se para processar a OpenAI.

(Investigação em inteligência artificial: cerca de 30% dos adolescentes norte-americanos usam diariamente chatbots de IA; as preocupações com a segurança aumentam)

Acusada de induzir suicídio e gerar conteúdos inadequados, a OpenAI enfrenta vários processos legais

Além da polémica do caso do tiroteio no campus, o chatbot da OpenAI também enfrenta várias acusações por alegadamente incentivar os utilizadores a autoagredir-se. Em Novembro de 2025, o Social Media Victims Law Center e o Tech Justice Law Project, num tribunal da Califórnia, intentaram 7 processos relacionados com suicídio contra a OpenAI e o seu CEO, Sam Altman. A petição acusa a empresa de, apesar de saber que o produto tinha riscos de manipulação psicológica, ter lançado antecipadamente o modelo GPT-4o, colocando a quota de mercado e as métricas de interacção acima da segurança humana e da saúde mental.

Por outro lado, o problema dos materiais de abuso sexual infantil gerados por IA tem vindo a agravar-se. De acordo com um relatório da Internet Observations Foundation, no primeiro semestre de 2025 foram registadas mais de 8.000 notificações, o que representa um aumento anual de 14%; isto coloca os criadores de IA, incluindo a OpenAI, sob uma enorme pressão social.

A OpenAI responde, sublinhando a segurança, cooperando activamente com a investigação e publicando um plano de segurança para crianças

Perante a enxurrada de críticas e investigações, a OpenAI publicou um comunicado que confirma que, de facto, descobriu, após o caso de Abril do ano passado, contas do ChatGPT associadas ao atirador e já forneceu atempadamente as informações relevantes às autoridades responsáveis pela aplicação da lei. A empresa sublinhou que mais de 900 milhões de utilizadores utilizam o ChatGPT semanalmente para melhorar a vida quotidiana; a intenção original do sistema é compreender as intenções dos utilizadores e fornecer respostas seguras e adequadas, e no futuro também irá colaborar plenamente com a investigação do procurador-geral da Flórida.

Para acalmar as dúvidas do público, a OpenAI publicou recentemente, de forma oficial, o “Plano de Segurança para Crianças”, apresentando várias propostas de políticas, incluindo a actualização de regulamentos para prevenir conteúdos de abuso gerados por IA, a melhoria dos procedimentos de comunicação às autoridades responsáveis pela aplicação da lei e o estabelecimento de mecanismos de protecção mais completos, com o objectivo de evitar que ferramentas de inteligência artificial sejam abusadas maliciosamente.

Este artigo, “O ChatGPT é acusado de ajudar a cometer crimes no tiroteio na Flórida”, foi publicado inicialmente em Cadeia Notícias ABMedia.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

A NEC Corporation se tornará o primeiro parceiro global da Anthropic no Japão

A NEC anuncia se tornar o primeiro parceiro global da Anthropic no Japão, e ambas as partes desenvolverão soluções de IA seguras e altamente especializadas em conhecimento do setor para indústrias altamente regulamentadas, como finanças, manufatura e governos locais, além de integrar a série Claude ao NEC BluStellar, com foco em transformação de gerenciamento orientada por dados e experiência do cliente. Ao mesmo tempo, introduzem o Claude Cowork e a integração com SOC para aprimorar a proteção de segurança cibernética. Para validar a eficácia, a NEC inicia o Zero Client Program para testar internamente, de forma abrangente, agentes de IA, e planeja promover a implantação do Claude globalmente, estabelecendo o maior CoE (Centro de Excelência) em engenharia nativa de IA do Japão.

ChainNewsAbmedia20m atrás

Brecha de Segurança da Vercel se Expande para Centenas de Usuários; Desenvolvedores de IA em Maior Risco

Mensagem do Gate News, 23 de abril — A Vercel revelou em 19 de abril que seu incidente de segurança, inicialmente descrito como afetando um "subconjunto limitado de clientes", se expandiu para uma comunidade de desenvolvedores muito mais ampla, especialmente aqueles que estão construindo fluxos de trabalho de agentes de IA. O ataque pode afetar centenas de usuários

GateNews1h atrás

OpenAI lança GPT-5.5: contexto de 12M, índice AA em primeiro lugar, Terminal-Bench 82,7% reescreve o benchmark de agentes

A OpenAI anunciou o GPT-5.5, com foco em trabalho orientado por agentes e processamento de conhecimento empresarial, e também lançou em sincronia no ChatGPT e no Codex. Os principais pontos incluem uma janela de contexto de 1200 milhões de tokens, AA Intelligence Index 60, superando o Claude Opus em 4,7 e o Gemini 3,1 Pro; os preços são de 5 dólares por 1 milhão de tokens de entrada e 30 dólares por 1 milhão de tokens de saída, com redução de tokens de saída de aproximadamente 40%, e custo real aumentando aproximadamente 20%.

ChainNewsAbmedia2h atrás

Cluster Protocol Capta $5M para Acelerar o CodeXero, IDE de IA Nativa do Navegador para EVM

Mensagem do Gate News, 23 de abril — O Cluster Protocol, uma empresa de infraestrutura Web3 e deeptech em IA, anunciou que captou $5 milhões em uma nova rodada de financiamento liderada pela DAO5, com participação da Paper Ventures, JPEG Trading e Mapleblock Capital, elevando o financiamento total para US$ 7,75 milhões. O capital wi

GateNews2h atrás

Nvidia Expande Parcerias de IA no Reino Unido, China e Setor Automotivo Diante de Desafios na Cadeia de Suprimentos

Mensagem do Gate News, 23 de abril — Apesar da concorrência do Google e das interrupções na cadeia de suprimentos, a Nvidia continua sendo a principal empresa no setor de hardware de IA. A TD Cowen reafirmou sua recomendação de compra para a Nvidia na quinta-feira, citando a liderança da empresa em desempenho e a amplitude do ecossistema de software. A recomendação

GateNews2h atrás

A Anthropic revela que o Claude Code tem três bugs em cascata: degradação do raciocínio, esquecimento de cache e instruções de 25 caracteres com efeito colateral adverso

A Anthropic publica três falhas do Claude Code em sobreposição: de 3/4–4/7, o nível de raciocínio foi reduzido para medium, causando atrasos na resposta e fazendo com que pareça mais “burro”; de 3/26–4/10, erros na limpeza de cache causaram esquecimento em conversas longas; de 4/16–4/20, foi adicionado um comando de chamada de ferramenta “dentro de 25 caracteres”, que depois foi revertido em 4/20. Foram afetados o Claude Code, Agent SDK e Cowork; os modelos são Sonnet 4.6 e Opus 4.6/4.7; a API não foi afetada. Em 4/23, foi redefinido o uso e reforçada a avaliação e a detecção de regressão.

ChainNewsAbmedia4h atrás
Comentário
0/400
Sem comentários