Submódulo 2: Limites, incerteza e alucinações: gerenciando o que a IA não pode fazer

Site: Lumina
Curso: Inteligência Artificial para Não-Técnicos Automatize Tarefas
Livro: Submódulo 2: Limites, incerteza e alucinações: gerenciando o que a IA não pode fazer
Impresso por: Usuário visitante
Data: quarta-feira, 17 set. 2025, 21:05

Descrição

Neste submódulo analisamos por que sistemas de IA cometem erros (alucinações), como aparece a incerteza e de que forma vieses e dados desbalanceados influenciam resultados. Vamos aprender a detectar, verificar e mitigar riscos no uso diário de assistentes como ChatGPT, Gemini e Claude, com checklists práticos, prompts estruturados (COSERAF) e rotinas de supervisão humana.

Por que a IA erra: alucinações, incerteza e vieses

🔍 Por que a IA erra: alucinações, incerteza e vieses

Vamos começar com uma analogia simples: imagine que a IA é uma enciclopédia que tenta completar páginas em branco com base em milhões de trechos que leu — às vezes ela adivinha bem; às vezes preenche com informações que parecem corretas, mas não são. Essas “adivinhações confiáveis” são o que chamamos de alucinações (ou hallucinations) em modelos generativos. Lembra que no módulo anterior vimos como os modelos aprendem padrões em grandes quantidades de texto? Essa aprendizagem estatística explica por que respostas plausíveis podem ser factualmente incorretas.

Artificial intelligence
Dall e 3 (jan '24) artificial intelligence icon

Alucinações surgem por três motivos principais: (a) limites nos dados de treino — se algo não aparece ou aparece pouco nos dados, o modelo pode inventar respostas; (b) falta de contexto — sem informações suficientes o modelo aposta na opção mais provável; (c) limitações de raciocínio — modelos não “sabem” como humanos, eles estimam probabilidades de palavras, não validam fatos. Estas explicações estão alinhadas com análises de gestão de risco para IA (1).

Além das alucinações, existe a questão dos vieses. Quando os dados de treino refletem desigualdades ou estereótipos, as saídas podem reproduzi-los — mesmo sem intenção humana explícita. A literatura sobre princípios de IA confiável enfatiza transparência, robustez e a necessidade de mecanismos para conter vieses e assegurar responsabilidade (2).

Também precisamos aceitar a incerteza: nem todo problema tem uma resposta única ou certa. Isso é comum em perguntas abertas (ex.: opinião, estratégia, diagnóstico inicial). Bons sistemas indicam incertezas ou oferecem alternativas — e nós devemos interpretar essas probabilidades com senso crítico.

🧠 Reflita: Pense em uma situação do seu trabalho em que uma resposta errada da IA poderia causar problemas. O que seria inaceitável: um erro de dados, uma recomendação errada, violação de privacidade? Anote e vamos usar isso nos próximos exercícios.

Resumo rápido: alucinações = respostas plausíveis mas possivelmente falsas; vieses = padrões injustos herdados dos dados; incerteza = vários resultados plausíveis sem uma única verdade exata. Entender essas diferenças ajuda a decidir quando confiar, verificar ou ignorar uma saída.

Como detectar e verificar respostas: checklist prática (zero-código)

🛠️ Detectar e verificar: uma rotina prática passo a passo

Antes de confiar em uma resposta, vamos aplicar um fluxo simples: gerar → checar fontes → cruzar informações → iterar. Ferramentas como ChatGPT, Gemini e Claude permitem copiar e colar textos, pedir referências e anexar contexto sem programar — vamos mostrar como. O NIST recomenda abordagens baseadas em risco e verificações por etapas para validar outputs (1).

Checklist prático (aplicável a e-mails, resumos, ideias e pesquisas):

  1. Peça referências explícitas: solicite links, autor e data. Se o modelo não puder fornecer, trate com cautela.
  2. Verifique a citação: abra 2 fontes confiáveis (ex.: sites oficiais, relatórios). Se duas não confirmarem, sinalize como incerto.
  3. Considere a especialidade: para temas sensíveis (saúde, jurídico, financeiro) sempre consulte um especialista humano.
  4. Cheque vieses: peça ao modelo uma versão neutra ou alternativa da resposta e compare diferenças.
  5. Registre versões: salve a resposta original e notas sobre checagens para auditoria futura.

📝 Atividade guiada (5 minutos): 1) Escolha um e-mail ou descrição de tarefa; 2) Use um assistente (ChatGPT/Gemini/Claude) para gerar a versão inicial; 3) Peça 3 fontes que confirmem os fatos; 4) Marque se cada fonte confirma, contradiz ou é inconclusiva; 5) Refine o prompt usando COSERAF (ex.: acrescentar 'me dê 3 fontes confiáveis e um resumo de cada').

🧠 Prompt Sugerido

Contexto: Sou coordenador(a) de projetos de uma ONG e preciso escrever um resumo de 200-250 palavras sobre as implicações de usar chatbots para atendimento a beneficiários. Objetivo: gerar um texto claro para um relatório interno. Saída: parágrafo de 200-250 palavras + 3 fontes confiáveis com link e uma frase sobre cada. Exemplos: (modelo de parágrafo curto). Restrições: linguagem clara, tom institucional, sem termos técnicos. Avaliação: clareza, factualidade, fontes citadas. Feedback: iterar em 2 rodadas para ajustar precisão.
graph TD; A[Escolher tarefa] --> B[Gerar resposta com COSERAF]; B --> C[Solicitar fontes e datas]; C --> D[Verificar 2 fontes confiáveis]; D --> E[Refinar prompt / Iterar]; E --> F[Registrar versão e decisão humana]

UNESCO e ICO lembram que, em contextos educacionais e de dados pessoais, é necessário validar ferramentas e proteger privacidade antes do uso em larga escala (2)(3). Use este fluxo sempre que decisões impactarem pessoas ou processos críticos.

Estratégias práticas para gerenciar riscos no dia a dia

🛡️ Estratégias práticas para reduzir riscos e incorporar supervisão humana

Nós vamos consolidar um conjunto de práticas fáceis de aplicar no dia a dia, com foco em zero-código e apropriadas para quem não é técnico. A ideia é manter a IA como assistente e nunca como substituta em decisões críticas — recomendação presente nas políticas de IA confiável (1).

Risk management
Example of risk assessment: A NASA model showing areas at high risk from impact for the International Space Station

Checklist mínimo antes de usar um resultado em produção:

  • Verificação factual: confirme 2 fontes independentes.
  • Privacidade: não envie dados pessoais sensíveis (identificadores, números, dados de saúde/confidenciais).
  • Avaliação de qualidade: aplique critérios — clareza, factualidade, adequação ao público, tom, referências e direitos autorais.
  • Registro e auditoria: salve entradas, saídas, prompts e decisões humanas associadas.
  • Plano de mitigação: defina o que fazer se o output for incorreto (corrigir, descartar, notificar responsável).

Ferramentas e políticas: grandes organizações e órgãos internacionais defendem a governança baseada em risco e a capacidade de auditoria para sistemas de IA, bem como proteção de dados e transparência (2)(3).

🧩 Atividade prática: Crie uma mini-política pessoal de 5 itens para seu uso diário (ex.: quais tipos de tarefas você permite automatizar; quando exigir revisão humana; como armazenar registros). Teste com um caso real do seu trabalho: execute o prompt, valide fontes e aplique a política.

❗ Reflita sobre ética e direitos: Há situações em que usar IA pode ferir direitos autorais, privacidade ou causar discriminação. Identifique duas situações do seu contexto que exigem cuidado extra e descreva como você vai mitigá-las.

Critérios rápidos de avaliação (usar sempre): clareza, factualidade (checada em 2 fontes), neutralidade de tom, adequação ao público, indicação de fontes, respeito à privacidade. Para assuntos sensíveis, marque como "consulta necessária" e busque especialista humano antes de publicar.

🎯 Exercícios

🎯 Exercícios: Limites, incerteza e alucinações: gerenciando o que a IA não pode fazer

Teste seus conhecimentos com estas questões de múltipla escolha. Cada questão tem apenas uma resposta correta.

Questão 1

O que são as alucinações em sistemas de IA de linguagem?

Questão 2

Qual afirmação descreve corretamente a origem de vieses em modelos de IA?

Questão 3

Em perguntas abertas, a incerteza é normal. Qual prática é recomendada?

Questão 4

Qual fluxo prático recomendado para uso responsável da IA, incluindo evitar alucinações?

Questão 5

Qual ferramenta/metodologia deve ser usada para estruturar prompts com contexto e critérios para IA?