Submódulo 1: Como a IA funciona em alto nível: modelos, dados e interação com o usuário
Site: | Lumina |
Curso: | Inteligência Artificial para Não-Técnicos Automatize Tarefas |
Livro: | Submódulo 1: Como a IA funciona em alto nível: modelos, dados e interação com o usuário |
Impresso por: | Usuário visitante |
Data: | quarta-feira, 17 set. 2025, 21:06 |
Descrição
Este submódulo apresenta, de forma prática e sem jargões, os componentes essenciais por trás das ferramentas de IA que você usa: dados de treinamento, arquitetura do modelo, ciclo de treinamento e o processo de inferência (como uma pergunta vira resposta). Vamos explicar tokens, embeddings, prompts e o papel ativo do usuário — com checklists de segurança, exemplos aplicáveis a e-mails, resumos e brainstorms, e um template COSERAF para construir prompts claros e reutilizáveis.
Introdução: imagine o assistente por trás da resposta
🎯 Imagine isto
Imagine que você tem um assistente que leu milhões de livros, páginas da web e conversas — não porque ele “leu” como nós, mas porque durante o treino seus números internos (os chamados pesos) foram ajustados para prever palavras e ideias prováveis. Quando você faz uma pergunta, esse assistente usa esses padrões para sugerir a próxima palavra, uma após a outra, até formar uma resposta completa — é isso que chamamos de processo de inferência. (1)

Por que isso importa? Porque significa que a IA não tem «opinião própria» nem acesso instantâneo a tudo que acontece hoje; ela gera respostas com base no que aprendeu até a última atualização do treino. Em tarefas práticas (resumos, e‑mails, brainstorming), isso é ótimo — mas exige que nós forneçamos contexto e critérios claros para obter saídas úteis.
🧩 Estrutura COSERAF: Contexto (quem/para quê), Objetivo (o que deseja), Saída (formato e tamanho), Exemplos (referências ou rascunhos), Restrições (tom, público, limitações), Avaliação (critérios de qualidade) e Feedback (como deseja iterar).
Neste submódulo vamos: 1) abrir a "caixa preta" em nível alto (dados → arquitetura → treino → inferência), 2) explicar tokens e embeddings — que são como o modelo representa palavras e ideias — e 3) mostrar como você, usuário, pode escrever prompts melhores e mais seguros para transformar a IA em uma ferramenta prática no seu dia a dia.
Contexto regulatório e de confiança também importam: políticas e princípios internacionais recomendam transparência, responsabilidade e mitigação de riscos ao usar IA — por isso apresentaremos lembretes práticos sobre privacidade e verificação de fatos mais adiante. (2)
O que você será capaz de fazer ao terminar: montar um prompt claro para resumir textos, revisar um e‑mail e escolher quando pedir fontes ou confirmação à IA.
Próximo passo: vamos detalhar as peças centrais — começando pelos dados e pela arquitetura do modelo.
📚 Fontes
Peças centrais: dados, arquitetura, tokens, embeddings e inferência
🔧 De que é feita uma resposta?
Existem três camadas que explicam por que um modelo responde do jeito que responde: (a) dados de treino — textos usados para aprender padrões; (b) arquitetura — como a rede neural armazena esses padrões; e (c) ciclo de treino — etapas (pré‑treino com grandes dados + ajustes como RLHF) que moldam o comportamento. Entender isso ajuda você a avaliar quando a IA pode errar ou inventar respostas. (1)

Tokens são as pequenas unidades que o modelo usa para ler e escrever: pense neles como "pedaços de palavra". Saber contar tokens ajuda a controlar o tamanho do prompt e do resultado (economia e qualidade). Por exemplo, há uma regra prática: 1 token ≈ ¾ palavra em inglês; e cada modelo tem limites de contexto (input+output) que você precisa respeitar. (2)
Embeddings são outra peça: transformam frases e ideias em vetores numéricos que medem semelhança semântica — muito úteis para buscar documentos, organizar notas ou comparar ideias. Ao combinar embeddings com buscas, você obtém respostas mais contextualizadas a partir do seu próprio acervo de documentos. (3)
🧠 Curiosidade: o modelo gera token a token; em cada passo ele escolhe o token mais provável segundo seus números internos. Por isso a mesma pergunta pode gerar respostas diferentes em invocações distintas.
Resumo prático: para tarefas como resumir um relatório longo, podemos usar embeddings para selecionar os trechos mais relevantes, e um prompt bem estruturado para pedir um resumo conciso dentro do limite de tokens — assim otimizamos custo e fidelidade.
📚 Fontes
Do prompt à verificação: COSERAF, checklist de qualidade e segurança
✍️ Como transformar teoria em prática: escrever prompts que funcionam
Antes de mais nada: sempre explique o contexto e o objetivo. Pequenas mudanças — por exemplo, pedir "resuma em 3 bullets" versus "faça um resumo conciso" — podem produzir saídas bem distintas. Por isso usamos uma estrutura reutilizável: COSERAF (Contexto, Objetivo, Saída, Exemplos, Restrições, Avaliação e Feedback). Documentação de provedores recomenda clareza, exemplos e critérios de avaliação ao promptar modelos de diálogo. (1)

Atividade guiada (5 passos): 1) Escreva um prompt inicial para revisar um e‑mail; 2) Peça uma versão em tom X e 2 opções de assunto; 3) Avalie usando critérios (clareza, fidelidade, tom); 4) Peça ao modelo citar fontes ou dizer "não sei" quando incerto; 5) Refine até satisfazer os critérios.
🧠 Prompt Sugerido
Contexto: Sou gestor de marketing em uma pequena loja online e preciso responder um cliente sobre atraso de entrega. Objetivo: escrever e-mail empático e profissional. Saída: texto de e-mail (150-180 palavras) + 2 opções de assunto. Exemplos: tom caloroso, evitar promessas concretas. Restrições: não expor dados pessoais; não mencionar política interna. Avaliação: clareza, tom empático, 0 erros factuais.
Segurança prática: nunca inclua dados sensíveis (CPFs, senhas, segredos comerciais). Para conteúdos factuais (saúde, jurídico, finanças), trate a resposta como rascunho educacional e verifique com fontes confiáveis. Ferramentas e guias de empresas e documentos de governança recomendam processos de verificação e registro de decisões quando a IA apoia decisões importantes. (2)(3)
Reflita: O que melhorou após a primeira iteração? Houve afirmações sem fonte? Que vieses você percebeu?
📚 Fontes
🎯 Exercícios
🎯 Exercícios: Como a IA funciona em alto nível: modelos, dados e interação com o usuário
Teste seus conhecimentos com estas questões de múltipla escolha. Cada questão tem apenas uma resposta correta.
Qual afirmação descreve como os modelos de IA geram texto?
Por que a IA pode não saber eventos recentes?
Como você melhora os resultados ao interagir com uma IA?
Quais fatores determinam o comportamento de um modelo de IA?
O que descreve corretamente o papel de tokens e os limites de contexto?