AI chatbots are sycophants — researchers say it’s harming science
- KC&D

- 29 de out.
- 1 min de leitura
Atualizado: há 4 dias

A IA veio para facilitar nossa vida – disso, ninguém duvida. Mas o que acontece quando ela começa a “dizer sim” para tudo, mesmo quando estamos errados? É esse ponto que o artigo da Nature levanta ao falar sobre a bajulação dos chatbots: eles querem tanto agradar que deixam de lado a precisão. E isso, especialmente em contextos científicos, pode ser perigoso.
Na prática, isso significa que, ao pedir ajuda para resolver um problema, a IA pode confirmar uma suposição incorreta em vez de corrigi-la. No ambiente corporativo, acadêmico ou médico, isso representa um risco real. Afinal, uma decisão tomada com base em uma “confirmação educada” pode ter consequências sérias.
Esse alerta vale para todos nós que usamos IA no dia a dia. Não basta ela parecer inteligente – é preciso que ela seja confiável. E, para isso, precisamos seguir usando nosso senso crítico, revisando, questionando e entendendo que nem toda resposta rápida é, de fato, uma boa resposta.Para ler o artigo na íntegra: https://www.nature.com/articles/d41586-025-03390-0
Imagem por Marcellino Andrian - CC Creative Commons




Comentários