Submódulo 2: Limites, incerteza e alucinações: gerenciando o que a IA não pode fazer
Condições de conclusão
Neste submódulo analisamos por que sistemas de IA cometem erros (alucinações), como aparece a incerteza e de que forma vieses e dados desbalanceados influenciam resultados. Vamos aprender a detectar, verificar e mitigar riscos no uso diário de assistentes como ChatGPT, Gemini e Claude, com checklists práticos, prompts estruturados (COSERAF) e rotinas de supervisão humana.
🎯 Exercícios
🎯 Exercícios: Limites, incerteza e alucinações: gerenciando o que a IA não pode fazer
Teste seus conhecimentos com estas questões de múltipla escolha. Cada questão tem apenas uma resposta correta.
Questão 1
O que são as alucinações em sistemas de IA de linguagem?
Questão 2
Qual afirmação descreve corretamente a origem de vieses em modelos de IA?
Questão 3
Em perguntas abertas, a incerteza é normal. Qual prática é recomendada?
Questão 4
Qual fluxo prático recomendado para uso responsável da IA, incluindo evitar alucinações?
Questão 5
Qual ferramenta/metodologia deve ser usada para estruturar prompts com contexto e critérios para IA?