Submódulo 1: Como a IA funciona em alto nível: modelos, dados e interação com o usuário

Site: Lumina
Curso: Inteligência Artificial para Não-Técnicos Automatize Tarefas
Livro: Submódulo 1: Como a IA funciona em alto nível: modelos, dados e interação com o usuário
Impresso por: Usuário visitante
Data: quarta-feira, 17 set. 2025, 21:06

Descrição

Este submódulo apresenta, de forma prática e sem jargões, os componentes essenciais por trás das ferramentas de IA que você usa: dados de treinamento, arquitetura do modelo, ciclo de treinamento e o processo de inferência (como uma pergunta vira resposta). Vamos explicar tokens, embeddings, prompts e o papel ativo do usuário — com checklists de segurança, exemplos aplicáveis a e-mails, resumos e brainstorms, e um template COSERAF para construir prompts claros e reutilizáveis.

Introdução: imagine o assistente por trás da resposta

🎯 Imagine isto

Imagine que você tem um assistente que leu milhões de livros, páginas da web e conversas — não porque ele “leu” como nós, mas porque durante o treino seus números internos (os chamados pesos) foram ajustados para prever palavras e ideias prováveis. Quando você faz uma pergunta, esse assistente usa esses padrões para sugerir a próxima palavra, uma após a outra, até formar uma resposta completa — é isso que chamamos de processo de inferência. (1)

Large language model
The training compute of notable large models in FLOPs vs publication date over the period 2010–2024. For overall notable models (top left), frontier models (top right), top language models (bottom left) and top models within leading companies (bottom right). The majority of these models are language models.

Por que isso importa? Porque significa que a IA não tem «opinião própria» nem acesso instantâneo a tudo que acontece hoje; ela gera respostas com base no que aprendeu até a última atualização do treino. Em tarefas práticas (resumos, e‑mails, brainstorming), isso é ótimo — mas exige que nós forneçamos contexto e critérios claros para obter saídas úteis.

🧩 Estrutura COSERAF: Contexto (quem/para quê), Objetivo (o que deseja), Saída (formato e tamanho), Exemplos (referências ou rascunhos), Restrições (tom, público, limitações), Avaliação (critérios de qualidade) e Feedback (como deseja iterar).

Neste submódulo vamos: 1) abrir a "caixa preta" em nível alto (dados → arquitetura → treino → inferência), 2) explicar tokens e embeddings — que são como o modelo representa palavras e ideias — e 3) mostrar como você, usuário, pode escrever prompts melhores e mais seguros para transformar a IA em uma ferramenta prática no seu dia a dia.

Contexto regulatório e de confiança também importam: políticas e princípios internacionais recomendam transparência, responsabilidade e mitigação de riscos ao usar IA — por isso apresentaremos lembretes práticos sobre privacidade e verificação de fatos mais adiante. (2)

O que você será capaz de fazer ao terminar: montar um prompt claro para resumir textos, revisar um e‑mail e escolher quando pedir fontes ou confirmação à IA.

Próximo passo: vamos detalhar as peças centrais — começando pelos dados e pela arquitetura do modelo.

([help.openai.com](https://help.openai.com/en/articles/7842364-how-chatgpt-and-our-language-models-are-developed%3F.pls?utm_source=openai))([oecd.org](https://www.oecd.org/en/topics/sub-issues/ai-principles.html?utm_source=openai))

Peças centrais: dados, arquitetura, tokens, embeddings e inferência

🔧 De que é feita uma resposta?

Existem três camadas que explicam por que um modelo responde do jeito que responde: (a) dados de treino — textos usados para aprender padrões; (b) arquitetura — como a rede neural armazena esses padrões; e (c) ciclo de treino — etapas (pré‑treino com grandes dados + ajustes como RLHF) que moldam o comportamento. Entender isso ajuda você a avaliar quando a IA pode errar ou inventar respostas. (1)

Transformer (machine learning)
A standard Transformer architecture, showing on the left an encoder, and on the right a decoder. Note: it uses the pre-LN convention, which is different from the post-LN convention used in the original 2017 Transformer.
graph TD; Dados-->PreTreino; PreTreino-->Ajuste(RLHF/Curadoria); Ajuste-->Modelo; Modelo-->Inferencia; Inferencia-->Resposta

Tokens são as pequenas unidades que o modelo usa para ler e escrever: pense neles como "pedaços de palavra". Saber contar tokens ajuda a controlar o tamanho do prompt e do resultado (economia e qualidade). Por exemplo, há uma regra prática: 1 token ≈ ¾ palavra em inglês; e cada modelo tem limites de contexto (input+output) que você precisa respeitar. (2)

Embeddings são outra peça: transformam frases e ideias em vetores numéricos que medem semelhança semântica — muito úteis para buscar documentos, organizar notas ou comparar ideias. Ao combinar embeddings com buscas, você obtém respostas mais contextualizadas a partir do seu próprio acervo de documentos. (3)

🧠 Curiosidade: o modelo gera token a token; em cada passo ele escolhe o token mais provável segundo seus números internos. Por isso a mesma pergunta pode gerar respostas diferentes em invocações distintas.

Resumo prático: para tarefas como resumir um relatório longo, podemos usar embeddings para selecionar os trechos mais relevantes, e um prompt bem estruturado para pedir um resumo conciso dentro do limite de tokens — assim otimizamos custo e fidelidade.

([help.openai.com](https://help.openai.com/en/articles/4936856?utm_source=openai))([openai.com](https://openai.com/index/introducing-text-and-code-embeddings/?utm_source=openai))([zapier.com](https://zapier.com/blog/how-does-chatgpt-work/?utm_source=openai))

Do prompt à verificação: COSERAF, checklist de qualidade e segurança

✍️ Como transformar teoria em prática: escrever prompts que funcionam

Antes de mais nada: sempre explique o contexto e o objetivo. Pequenas mudanças — por exemplo, pedir "resuma em 3 bullets" versus "faça um resumo conciso" — podem produzir saídas bem distintas. Por isso usamos uma estrutura reutilizável: COSERAF (Contexto, Objetivo, Saída, Exemplos, Restrições, Avaliação e Feedback). Documentação de provedores recomenda clareza, exemplos e critérios de avaliação ao promptar modelos de diálogo. (1)

Prompt engineering
GraphRAG with a knowledge graph combining access patterns for unstructured, structured, and mixed data

Atividade guiada (5 passos): 1) Escreva um prompt inicial para revisar um e‑mail; 2) Peça uma versão em tom X e 2 opções de assunto; 3) Avalie usando critérios (clareza, fidelidade, tom); 4) Peça ao modelo citar fontes ou dizer "não sei" quando incerto; 5) Refine até satisfazer os critérios.

🧠 Prompt Sugerido

Contexto: Sou gestor de marketing em uma pequena loja online e preciso responder um cliente sobre atraso de entrega. Objetivo: escrever e-mail empático e profissional. Saída: texto de e-mail (150-180 palavras) + 2 opções de assunto. Exemplos: tom caloroso, evitar promessas concretas. Restrições: não expor dados pessoais; não mencionar política interna. Avaliação: clareza, tom empático, 0 erros factuais.

Segurança prática: nunca inclua dados sensíveis (CPFs, senhas, segredos comerciais). Para conteúdos factuais (saúde, jurídico, finanças), trate a resposta como rascunho educacional e verifique com fontes confiáveis. Ferramentas e guias de empresas e documentos de governança recomendam processos de verificação e registro de decisões quando a IA apoia decisões importantes. (2)(3)

Reflita: O que melhorou após a primeira iteração? Houve afirmações sem fonte? Que vieses você percebeu?

([docs.anthropic.com](https://docs.anthropic.com/en/docs/prompt-engineering?utm_source=openai))([zapier.com](https://zapier.com/blog/how-does-chatgpt-work/?utm_source=openai))([airc.nist.gov](https://airc.nist.gov/airmf-resources/airmf/0-ai-rmf-1-0/?utm_source=openai))

🎯 Exercícios

🎯 Exercícios: Como a IA funciona em alto nível: modelos, dados e interação com o usuário

Teste seus conhecimentos com estas questões de múltipla escolha. Cada questão tem apenas uma resposta correta.

Questão 1

Qual afirmação descreve como os modelos de IA geram texto?

Questão 2

Por que a IA pode não saber eventos recentes?

Questão 3

Como você melhora os resultados ao interagir com uma IA?

Questão 4

Quais fatores determinam o comportamento de um modelo de IA?

Questão 5

O que descreve corretamente o papel de tokens e os limites de contexto?