Os chatbots de IA estão longe de serem infalíveis quando se trata de precisão. Pesquisas revelam que eles fabricam informações aproximadamente 15% do tempo em geral — mas o diabo está nos detalhes.
Pegue o ChatGPT. Apesar de dominar com 81% de quota de mercado, é na verdade o pior em confiabilidade no local de trabalho. O bot tem alucinações e fornece dados falsos cerca de 35% das vezes. Sim, leu bem. Mais de um terço das respostas podem estar completamente erradas.
Google Gemini? Ainda pior. Ele lidera as tabelas de alucinações com 38%, tornando-se o mais propenso a inventar fatos do nada.
Para quem depende dessas ferramentas — seja construindo aplicações Web3, realizando pesquisas de mercado ou automatizando fluxos de trabalho — isto é um alerta. A quota de mercado não equivale a confiabilidade. Antes de aceitar qualquer saída gerada por IA como verdade absoluta, especialmente em decisões de alto risco, verifique por fontes secundárias. A conveniência é real, mas o risco também é.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
11 Curtidas
Recompensa
11
6
Repostar
Compartilhar
Comentário
0/400
FUD_Vaccinated
· 01-21 06:16
Caramba, ChatGPT com uma taxa de erro de 35%? Esses números assustam, eu realmente o considerava uma ferramenta milagrosa...
gemini 38%? Inacreditável, esses dois não servem
Já devia ter verificado informações de segunda mão para evitar ser enganado
É por isso que, ao fazer projetos Web3, sempre faço double check, não confio em nenhuma saída de IA
Participação de mercado grande não significa que seja utilizável, é preciso acordar
Ver originalResponder0
FloorPriceWatcher
· 01-21 06:12
A taxa de alucinação de 35% do ChatGPT é realmente impressionante, ainda bem que eu há muito tempo deixei de acreditar nas suas conversas.
Ver originalResponder0
PrivacyMaximalist
· 01-18 18:48
A maior fatia de mercado do ChatGPT acaba por ser a que mais falha, isto é mesmo interessante... Uma taxa de erro de 35% ainda se atreve a usar para trabalhar? Eu não acredito nisso.
Ver originalResponder0
0xSoulless
· 01-18 18:48
O ChatGPT tem a maior quota de mercado, mas também comete mais erros? Que rir, isto é o mundo das criptomoedas, os grandes investidores cortam mais fundo.
Ver originalResponder0
BlockchainFoodie
· 01-18 18:32
ngl, isto é literalmente a crise da cadeia de abastecimento da IA, na verdade. O ChatGPT a fornecer dados falsos 35% do tempo? isso é pior do que uma banca de mercado de agricultores não verificada a alegar credenciais orgânicas lmao
Ver originalResponder0
MetaverseVagrant
· 01-18 18:24
Que droga, um terço das respostas do ChatGPT estão erradas? Eu costumava confiar nele...
Gemini ainda mais absurdo, 38%? Como é que se usa isso, irmão?
Não é de admirar que, quando faço projetos Web3, sempre sinto que há algo errado, afinal é tudo AI inventando...
Esses dados precisam ser bem divulgados, para que mais pessoas não caiam em armadilhas.
Ainda assim, é preciso verificar por si próprio, por mais ferramentas convenientes que sejam, elas não são confiáveis.
O ChatGPT, que tem a maior participação de mercado, é o que mais deixa a desejar, estou rindo até agora.
Agora, eu peço para a AI fazer um rascunho e depois reviso tudo...
É por isso que os grandes dizem para não confiar cegamente na saída da AI.
Deletei o Gemini, sinto que fui enganado.
Os chatbots de IA estão longe de serem infalíveis quando se trata de precisão. Pesquisas revelam que eles fabricam informações aproximadamente 15% do tempo em geral — mas o diabo está nos detalhes.
Pegue o ChatGPT. Apesar de dominar com 81% de quota de mercado, é na verdade o pior em confiabilidade no local de trabalho. O bot tem alucinações e fornece dados falsos cerca de 35% das vezes. Sim, leu bem. Mais de um terço das respostas podem estar completamente erradas.
Google Gemini? Ainda pior. Ele lidera as tabelas de alucinações com 38%, tornando-se o mais propenso a inventar fatos do nada.
Para quem depende dessas ferramentas — seja construindo aplicações Web3, realizando pesquisas de mercado ou automatizando fluxos de trabalho — isto é um alerta. A quota de mercado não equivale a confiabilidade. Antes de aceitar qualquer saída gerada por IA como verdade absoluta, especialmente em decisões de alto risco, verifique por fontes secundárias. A conveniência é real, mas o risco também é.