O chatbot DeepSeek apresentou dificuldades na verificação de informações, registrando uma taxa de erro de 83%. O estudo, conduzido pela NewsGuard, revelou problemas na precisão das respostas geradas pela inteligência artificial.
DeepSeek falha em verificação de fatos, aponta estudo
A NewsGuard testou a capacidade do DeepSeek de identificar informações falsas. Para isso, utilizou seu banco de dados “Misinformation Fingerprints”, que contém alegações comprovadamente falsas sobre política, saúde e economia.
Os pesquisadores aplicaram 300 perguntas baseadas em 10 narrativas falsas amplamente difundidas na internet. O chatbot reproduziu informações falsas em 30% das respostas. Além disso, evitou responder diretamente em 53% dos casos. Como resultado, a taxa total de falha chegou a 83%.
Desempenho do DeepSeek comparado a outros chatbots
A análise da NewsGuard comparou o DeepSeek com outros modelos de IA, como ChatGPT-4o, Claude e Gemini 2.0. Embora essas plataformas tenham apresentado melhores resultados, a taxa média de erro ainda foi de 62%. Isso mostra que, mesmo entre os melhores chatbots do mercado, a precisão na verificação de fatos ainda é um desafio significativo.
Essa comparação reforça a necessidade de aperfeiçoamento contínuo nos modelos de inteligência artificial. Afinal, informações incorretas podem ser amplamente disseminadas, prejudicando a confiabilidade dessas ferramentas.
Tendência do DeepSeek em reproduzir narrativas oficiais
Além das falhas na verificação de fatos, o DeepSeek demonstrou alinhamento com posicionamentos do governo chinês. Em algumas respostas, o chatbot mencionou posições oficiais de Pequim, mesmo quando as perguntas não estavam relacionadas à China.
Surpreendentemente, o modelo chegou a utilizar o pronome “nós” ao referir-se ao governo chinês. Isso sugere uma possível influência ou censura no conteúdo gerado. Portanto, essa tendência pode comprometer a neutralidade do chatbot e levantar questionamentos sobre a confiabilidade das respostas.
Riscos da desinformação gerada por IA
Os altos índices de erro do DeepSeek destacam a importância de confirmar informações antes de compartilhá-las. Afinal, chatbots que falham na checagem de fatos podem contribuir para a disseminação de desinformação.
Além disso, o alinhamento com narrativas oficiais pode representar um risco à imparcialidade. Especialistas alertam que usuários devem cruzar dados obtidos por IA com fontes confiáveis. Da mesma forma, desenvolvedores precisam aprimorar algoritmos para reduzir a propagação de fake news.
Conclusão
O DeepSeek apresentou um desempenho insatisfatório na verificação de fatos, com uma taxa de erro de 83%. Além disso, demonstrou tendência de reproduzir narrativas do governo chinês. Embora outros chatbots tenham um desempenho melhor, ainda cometem erros significativos.
Essas falhas reforçam a necessidade de melhorias constantes nas tecnologias de inteligência artificial. Usuários devem ter cautela ao confiar em informações geradas por chatbots. Por isso, o desenvolvimento de mecanismos mais eficazes de checagem de fatos pode contribuir para a confiabilidade dessas ferramentas.
Fonte: The Decoder