Submódulo 3: Governança, dados e melhoria contínua: conformidade, logs e auditoria
PDCA, logs e melhoria contínua na governança de IA
🧭 PDCA e Melhoria Contínua
Para sustentar uso responsável e confiável de IA, adotamos o ciclo PDCA: Planejar, Fazer, Checar e Agir. Na prática, isso significa planejar políticas de governança e critérios de qualidade; executar fluxos com logs e controles; checar resultados por meio de métricas e auditorias; e agir para ajustar políticas, fluxos e treinamentos com base no feedback. Este ciclo gera melhoria contínua e governança ágil, adaptável a mudanças regulatórias e tecnológicas (1).

O planejamento envolve estabelecer padrões de qualidade, critérios de aprovação para alterações em prompts e fluxos, e definições de responsabilidades. Fazer refere-se à implementação prática: registrar logs claros, manter versões de prompts, documentar alterações e manter trilhas de auditoria acessíveis. Checar envolve métricas de desempenho, conformidade e satisfação do usuário, com revisões periódicas. Agir é a etapa de melhoria: atualizar políticas, realizar rollbacks quando necessário e documentar decisões (2).
Como parte deste submódulo, apresentamos um exercício prático: criar um plano de governança para um fluxo de atendimento a dúvidas que utilize ChatGPT, Gemini e Claude, definindo responsáveis, métricas de qualidade, pontos de verificação humana e critérios de escalonamento. O objetivo é transformar teoria em prática cotidiana, assegurando uso responsável e alinhado às políticas da organização e à privacidade dos usuários.
🧩 Estrutura COSERAF Contexto (quem/para quê), Objetivo (o que deseja), Saída (formato e tamanho), Exemplos (referências), Restrições (tom, público), Avaliação (critérios), Feedback (integração)