Submódulo 2: Limites, incerteza e alucinações: gerenciando o que a IA não pode fazer
Por que a IA erra: alucinações, incerteza e vieses
🔍 Por que a IA erra: alucinações, incerteza e vieses
Vamos começar com uma analogia simples: imagine que a IA é uma enciclopédia que tenta completar páginas em branco com base em milhões de trechos que leu — às vezes ela adivinha bem; às vezes preenche com informações que parecem corretas, mas não são. Essas “adivinhações confiáveis” são o que chamamos de alucinações (ou hallucinations) em modelos generativos. Lembra que no módulo anterior vimos como os modelos aprendem padrões em grandes quantidades de texto? Essa aprendizagem estatística explica por que respostas plausíveis podem ser factualmente incorretas.

Alucinações surgem por três motivos principais: (a) limites nos dados de treino — se algo não aparece ou aparece pouco nos dados, o modelo pode inventar respostas; (b) falta de contexto — sem informações suficientes o modelo aposta na opção mais provável; (c) limitações de raciocínio — modelos não “sabem” como humanos, eles estimam probabilidades de palavras, não validam fatos. Estas explicações estão alinhadas com análises de gestão de risco para IA (1).
Além das alucinações, existe a questão dos vieses. Quando os dados de treino refletem desigualdades ou estereótipos, as saídas podem reproduzi-los — mesmo sem intenção humana explícita. A literatura sobre princípios de IA confiável enfatiza transparência, robustez e a necessidade de mecanismos para conter vieses e assegurar responsabilidade (2).
Também precisamos aceitar a incerteza: nem todo problema tem uma resposta única ou certa. Isso é comum em perguntas abertas (ex.: opinião, estratégia, diagnóstico inicial). Bons sistemas indicam incertezas ou oferecem alternativas — e nós devemos interpretar essas probabilidades com senso crítico.
🧠 Reflita: Pense em uma situação do seu trabalho em que uma resposta errada da IA poderia causar problemas. O que seria inaceitável: um erro de dados, uma recomendação errada, violação de privacidade? Anote e vamos usar isso nos próximos exercícios.
Resumo rápido: alucinações = respostas plausíveis mas possivelmente falsas; vieses = padrões injustos herdados dos dados; incerteza = vários resultados plausíveis sem uma única verdade exata. Entender essas diferenças ajuda a decidir quando confiar, verificar ou ignorar uma saída.