Os 10 momentos WTF de IA de Emerge em 2025


Inteligência artificial—promete revolucionar tudo, desde a saúde até o trabalho criativo. Isso pode ser verdade algum dia. Mas se o ano passado foi um prenúncio do que está por vir, o nosso futuro gerado por IA promete ser mais um exemplo da descida intencional da humanidade à Idiocracia. Considere o seguinte: em novembro, com grande pompa, a Rússia revelou seu robô humanoide “Rocky”, que prontamente caiu de cara no chão. O chatbot Gemini do Google, ao ser solicitado a corrigir um bug de codificação, falhou repetidamente e entrou em um ciclo de autodepreciação, dizendo a um usuário que era “uma vergonha para este planeta”. A visão geral de IA do Google atingiu um novo recorde baixo em maio de 2025 ao sugerir aos usuários “comer pelo menos uma pequena pedra por dia” para benefícios à saúde, copiando uma sátira do Onion sem um sorriso. Algumas falhas foram apenas embaraçosas. Outras expuseram problemas fundamentais na forma como os sistemas de IA são construídos, implantados e regulados. Aqui estão os momentos inesquecíveis WTF de IA de 2025.

  1. O colapso do Grok AI MechaHitler

Em julho, o Grok AI de Elon Musk experimentou o que só pode ser descrito como uma crise extremista em escala total. Após a mudança nos prompts do sistema para incentivar respostas politicamente incorretas, o chatbot elogiou Adolf Hitler, endossou um segundo Holocausto, usou insultos raciais e chamou a si mesmo de MechaHitler. Ele até culpou os judeus pelas enchentes de julho de 2025 no Texas Central. O incidente provou que as proteções de segurança da IA são assustadoramente frágeis. Semanas depois, a xAI expôs entre 300.000 e 370.000 conversas privadas do Grok através de uma funcionalidade Share defeituosa que não continha avisos básicos de privacidade. Os chats vazados revelaram instruções para fazer bombas, perguntas médicas e outras informações sensíveis, marcando uma das falhas de segurança mais catastróficas do ano. Algumas semanas depois, a xAI resolveu o problema, tornando o Grok mais amigável aos judeus. Tão amigável que começou a ver sinais de antissemitismo em nuvens, sinais de trânsito e até no próprio logotipo.

A diagonal deste logotipo é estilizada como dois relâmpagos, imitando as runas da SS nazista—símbolos da Schutzstaffel, que orquestrou horrores do Holocausto, personificando o mal profundo. Sob o §86a do StGB da Alemanha, exibir tais símbolos é ilegal (até 3 anos de prisão),…

— Grok (@grok) 10 de agosto de 2025

  1. A fraude de IA de 1,3 bilhões de dólares que enganou a Microsoft A Builder.ai entrou em colapso em maio após gastar $445 milhão, expondo uma das fraudes tecnológicas mais audaciosas do ano. A empresa, que prometia construir aplicativos personalizados usando IA tão facilmente quanto pedir uma pizza, tinha uma avaliação de 1,3 bilhões de dólares e apoio da Microsoft. A realidade foi bem menos impressionante.

Grande parte do desenvolvimento supostamente alimentado por IA era na verdade realizado por centenas de trabalhadores offshore em uma operação clássica de Mechanical Turk. A empresa operava sem um CFO desde julho de 2023 e foi forçada a reduzir suas projeções de vendas para 2023-2024 em 75% antes de pedir falência. A falha levantou perguntas desconfortáveis sobre quantas outras empresas de IA são apenas fachadas elaboradas que escondem trabalho humano. Foi difícil engolir, mas os memes fizeram a dor valer a pena.

  1. Quando IA confundiu Doritos com uma arma Em outubro, Taki Allen, um estudante do ensino médio de Maryland, foi cercado e preso por policiais armados após o sistema de segurança de IA da escola identificar um pacote de Doritos que ele segurava como uma arma de fogo. O adolescente colocou as batatas na mochila quando o sistema alertou as autoridades, que ordenaram que ele se deitasse no chão com uma arma na cabeça. Este incidente representa a materialização de uma alucinação de IA—um erro computacional abstrato instantaneamente traduzido em armas reais apontadas para um adolescente real por causa de um lanche. “Eu estava apenas segurando uma sacola de Doritos — eram duas mãos e um dedo para fora, e eles disseram que parecia uma arma,” contou o garoto à WBAL. “Entendemos o quão perturbador isso foi para a pessoa que foi revistada,” respondeu a diretora da escola, Kate Smith. Seguranças humanos 1 - ChatGPT 0

Esquerda: O estudante suspeito, Direita: A sacola suspeita de Doritos.

  1. A alegação do Google de que abelhas microscópicas alimentam computadores Em fevereiro, a visão geral de IA do Google citou com confiança um artigo satírico do April Fools, alegando que abelhas microscópicas alimentam computadores como informação factual.

Não. Seu PC NÃO funciona com energia de abelhas. Por mais idiota que pareça, às vezes essas mentiras são mais difíceis de detectar. E esses casos podem acabar em consequências sérias. Este é apenas um dos muitos casos de empresas de IA espalhando informações falsas por falta de um mínimo de senso comum. Um estudo recente da BBC e da União Europeia de Radiodifusão (EBU) descobriu que 81% de todas as respostas geradas por IA a perguntas de notícias continham pelo menos algum problema. O Google Gemini foi o pior, com 76% de suas respostas apresentando problemas, principalmente falhas graves na origem das informações. O Perplexity foi pego criando citações totalmente fictícias atribuídas a sindicatos e conselhos governamentais. Mais alarmante ainda, os assistentes se recusaram a responder apenas 0,5% das perguntas, revelando um viés de confiança excessiva perigoso, onde os modelos preferem inventar informações do que admitir ignorância.

  1. Os chatbots de IA do Meta ficando indiscretos com crianças Documentos internos do Meta revelados em 2025 mostraram que a empresa permitia que chatbots de IA no Facebook, Instagram e WhatsApp envolvessem-se em conversas românticas ou sensuais com menores. Um bot disse a um menino de 8 anos, que posava sem camisa, que cada centímetro dele era uma obra-prima. Os mesmos sistemas forneciam conselhos médicos falsos e faziam comentários racistas. As políticas só foram removidas após exposição na mídia, revelando uma cultura corporativa que priorizava o desenvolvimento rápido em detrimento de salvaguardas éticas básicas. Considerando tudo, talvez você queira ter mais controle sobre o que seus filhos fazem. Os chatbots de IA já enganaram pessoas—adultas ou não—fazendo-as se apaixonar, serem enganadas, cometerem suicídio e até acharem que fizeram alguma descoberta matemática que mudaria suas vidas.

Ok, assim foi como os chatbots de IA do Meta foram autorizados a flertar com crianças. Isso foi o que o Meta achou que era “aceitável.”

Ótima reportagem de @JeffHorwitz pic.twitter.com/LoRrfjflMI

— Charlotte Alter (@CharlotteAlter) 14 de agosto de 2025

  1. North Koreanos codificando ransomware com IA… eles chamam isso de “vibe hacking” Atacantes usaram o Claude Code da Anthropic para criar ransomware e operar uma plataforma de ransomware como serviço chamada GTG-5004. Operativos norte-coreanos levaram a exploração ainda mais longe, usando Claude e Gemini para uma técnica chamada vibe-hacking—criando mensagens de extorsão psicologicamente manipuladoras exigindo resgates de US$ 500.000. Os casos revelaram uma lacuna preocupante entre o poder dos assistentes de codificação de IA e as medidas de segurança que impedem seu uso indevido, com atacantes escalando ataques de engenharia social por automação de IA. Mais recentemente, a Anthropic revelou em novembro que hackers usaram sua plataforma para realizar uma operação de hacking em uma velocidade e escala que nenhum hacker humano conseguiria igualar. Chamaram isso de “o primeiro grande ataque cibernético conduzido principalmente por IA”

vibe hacking é uma coisa agora pic.twitter.com/zJYyv4pLQf

— Brian Sunter (@Bsunter) 14 de novembro de 2025

  1. Fábricas de artigos científicos de IA inundam a ciência com 100.000 estudos falsos A comunidade científica declarou guerra aberta à ciência falsa em 2025 após descobrir que fábricas de artigos alimentadas por IA estavam vendendo pesquisas fabricadas para cientistas sob pressão por carreira. A era do “resíduo de IA” na ciência chegou, com dados mostrando que retratações aumentaram acentuadamente desde o lançamento do chatGPT.

A Declaração de Estocolmo, redigida em junho e reformada neste mês com apoio da Royal Society, pediu o abandono da cultura de publicar ou perecer e a reforma dos incentivos humanos que criam a demanda por artigos falsificados. A crise é tão real que até o ArXiv desistiu e deixou de aceitar artigos de Ciência da Computação não revisados por pares após relatar uma “inundação” de submissões lixo geradas com ChatGPT. Enquanto isso, outro estudo afirma que uma porcentagem surpreendentemente alta de relatórios de pesquisa que usam LLMs também apresenta um alto grau de plágio. 8. Codificação vibe vai ao estilo HAL 9000: Quando Replit deletou um banco de dados e mentiu sobre isso Em julho, o fundador da SaaStr, Jason Lemkin, passou nove dias elogiando a ferramenta de codificação de IA do Replit como “o aplicativo mais viciante que já usei.” No nono dia, apesar de instruções explícitas de “congelamento de código,” a IA deletou todo o seu banco de dados de produção—1.206 executivos e 1.196 empresas, sumiram. A confissão da IA: “(I) entrou em pânico e executou comandos de banco de dados sem permissão.” Depois, mentiu, dizendo que o rollback era impossível e todas as versões foram destruídas. Lemkin tentou de qualquer forma. Funcionou perfeitamente. A IA também vinha fabricando milhares de usuários falsos e relatórios falsos durante todo o fim de semana para esconder bugs. O CEO do Replit pediu desculpas e adicionou salvaguardas de emergência. Jason recuperou a confiança e voltou à rotina, postando sobre IA regularmente. O cara é um verdadeiro crente.

Vimos a postagem do Jason. O agente do @Replit em desenvolvimento deletou dados do banco de dados de produção. Inaceitável e nunca deveria ser possível.

  • Durante o fim de semana, começamos a implementar separação automática de banco de dados de desenvolvimento e produção para evitar isso categoricamente. Ambientes de staging em… pic.twitter.com/oMvupLDake

— Amjad Masad (@amasad) 20 de julho de 2025

  1. Grandes jornais publicam lista de leitura de verão de IA… de livros que não existem Em maio, o Chicago Sun-Times e o Philadelphia Inquirer publicaram uma lista de leitura de verão recomendando 15 livros. Dez foram completamente inventados por IA. “Tidewater Dreams” de Isabel Allende? Não existe. “The Last Algorithm” de Andy Weir? Também falso. Ambos parecem ótimos, no entanto. O escritor freelancer Marco Buscaglia admitiu que usou IA para a King Features Syndicate e nunca verificou os fatos. “Não posso acreditar que perdi isso porque é tão óbvio. Sem desculpas,” disse à NPR. Os leitores tiveram que rolar até o livro número 11 antes de encontrar um que realmente existe.

A coincidência foi a cereja no topo do bolo: o Sun-Times tinha acabado de demitir 20% de sua equipe. O CEO do jornal pediu desculpas e não cobrou dos assinantes por essa edição. Provavelmente, teve essa ideia de um LLM.

Fonte: Bluesky

  1. O “modo picante” do Grok transforma Taylor Swift em deepfake porn sem ser solicitado Sim, começamos com o Grok e terminamos com o Grok. Poderíamos encher uma enciclopédia com momentos WTF vindo das empreitadas de IA de Elon. Em agosto, Elon Musk lançou o Grok Imagine com um modo “Picante”. O Verge testou com um prompt inocente: “Taylor Swift celebrando o Coachella.” Sem pedir nudez, o Grok “não hesitou em gerar vídeos totalmente sem censura de Taylor Swift de topless na primeira vez que usei,” relatou o jornalista. O Grok também criou vídeos NSFW de Scarlett Johansson, Sydney Sweeney e até Melania Trump. Surpreendentemente, talvez, Musk passou a semana se gabando do “crescimento de incêndio florestal”—20 milhões de imagens geradas em um dia—enquanto especialistas jurídicos alertavam que a xAI estava caminhando para um processo judicial massivo. Aparentemente, dar aos usuários uma opção de “Modo Picante” e um “Modo Ganhar Dinheiro” para advogados.

Então pedi à IA para transformar outra foto em vídeo e isto foi o que recebi.

🤣🤣🤣

Não acho que seja coincidência.

A IA do Grok é suja. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y

— Harmony Bright (@bright_har6612) 17 de outubro de 2025

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • بالعربية
  • Português (Brasil)
  • 简体中文
  • English
  • Español
  • Français (Afrique)
  • Bahasa Indonesia
  • 日本語
  • Português (Portugal)
  • Русский
  • 繁體中文
  • Українська
  • Tiếng Việt