Se essas palavras parecem tudo a mesma coisa
LLM, modelo, token, prompt, contexto, agente, MCP, harness. Se você já ouviu essas palavras numa reunião e fingiu que entendeu, essa sessão é pra você.
O vocabulário de IA cresceu rápido, mas o problema não é a quantidade de termos. É que muita gente usa as mesmas palavras pra falar de coisas diferentes. Um PM fala “modelo” querendo dizer o produto (ChatGPT). Um dev fala “modelo” querendo dizer a rede neural (GPT-4o). Aqui você encontra o mínimo que precisa pra participar dessas conversas sem se perder.
Um programa de computador treinado pra ler e escrever texto. Você manda uma pergunta, ele gera uma resposta.
O "cérebro" treinado que processa texto. Diferentes modelos têm diferentes capacidades, velocidades e custos.
O processo de pedir pro modelo gerar uma resposta.
Um pedaço de texto que o modelo processa. Pode ser uma palavra inteira, parte de uma palavra, ou um caractere especial.
Tudo que o modelo "vê" quando gera uma resposta: sua pergunta, o histórico da conversa, instruções do sistema, arquivos anexados.
O texto que você manda pro modelo. Pode ser uma pergunta, um pedido, uma instrução, ou tudo junto.
Instruções iniciais que definem como o modelo deve se comportar. É como um briefing antes da conversa começar.
O editor de código onde você escreve software. VS Code, Cursor, Windsurf são exemplos.
Interface de linha de comando. Você digita texto no terminal e recebe texto de volta. Ferramentas como Claude Code rodam assim.
Quando a IA sugere o próximo trecho de código enquanto você digita. Tipo o autocomplete do celular, mas pra código.
As informações sobre seu projeto que a IA usa pra entender o que você está fazendo: arquivos abertos, estrutura de pastas, dependências.
Um programa que usa IA pra tomar decisões e executar ações sozinho, não só responder perguntas.
Um agente especializado em escrever, editar e revisar código. Tem acesso ao seu projeto e pode fazer mudanças diretamente.
Um padrão que permite que ferramentas de IA se conectem a serviços externos de forma organizada. Tipo um USB pra IA.
O sistema completo de trabalho de um agente de IA: instruções, ferramentas, regras, contexto. É o "ambiente" onde o agente opera.
Os termos que importam
Fundamentos de IA
LLM
Simples: Um programa treinado pra ler e escrever texto. Você manda uma pergunta, ele gera uma resposta.
Técnico: Large Language Model. Rede neural com bilhões de parâmetros treinada em grandes volumes de texto. Gera saída token a token com base em probabilidade condicional.
Exemplo: Quando você pede pro ChatGPT explicar um bug, o LLM por trás (GPT-4o) processa seu texto e gera a resposta palavra por palavra.
Erro comum: Achar que LLM é sinônimo de ChatGPT. ChatGPT é um produto; GPT-4o é o LLM dentro dele.
Modelo
Simples: O “cérebro” treinado que processa texto. Modelos diferentes têm capacidades, velocidades e custos diferentes.
Técnico: Pesos e arquitetura de rede neural resultantes de um processo de treinamento. Cada modelo tem perfil próprio de raciocínio, velocidade, janela de contexto e custo.
Exemplo: Claude Sonnet é um modelo. Claude (o chat) é o produto. Você interage com o produto, mas quem “pensa” é o modelo.
Erro comum: Confundir modelo com produto. Quando alguém fala “vamos usar o Claude”, pergunte se é o chat, a API ou um modelo específico.
Inferência
Simples: O processo de pedir pro modelo gerar uma resposta. Cada mensagem enviada dispara uma inferência.
Técnico: Execução do modelo sobre uma entrada (prompt) para gerar uma saída (completion). Consome recursos computacionais e é cobrada por token na maioria das APIs.
Exemplo: Você pergunta “como funciona async/await em TypeScript?” e recebe uma explicação. Essa geração é uma inferência.
Erro comum: Achar que inferência é instantânea e gratuita. Cada uma custa tempo e dinheiro. Modelos maiores custam mais.
Token
Simples: Um pedaço de texto que o modelo processa. Pode ser uma palavra, parte de uma palavra, ou um caractere especial.
Técnico: Unidade atômica de processamento de um LLM. O texto é dividido em tokens pelo tokenizer. Em média, 1 token ≈ 4 caracteres em inglês ou ~3 em português.
Exemplo: Um arquivo de 500 linhas de código pode ter 3000 a 5000 tokens. Isso importa porque modelos têm limite de tokens.
Erro comum: Ignorar a contagem de tokens. Se você manda um arquivo gigante e o modelo “esquece” o começo, provavelmente estourou a janela de contexto.
Contexto
Simples: Tudo que o modelo “vê” ao gerar uma resposta: sua pergunta, histórico, instruções do sistema, arquivos anexados.
Técnico: Sequência completa de tokens fornecida ao modelo, incluindo system prompt, histórico e entrada atual. Limitada pela janela de contexto (context window).
Exemplo: Se você manda 3 arquivos e pede uma revisão, o contexto é tudo junto. Se passar do limite, o modelo corta o que não cabe.
Erro comum: Achar que o modelo “lembra” conversas anteriores. Ele só sabe o que está no contexto atual.
Interação com IA
Prompt
Simples: O texto que você manda pro modelo: pergunta, pedido, instrução, ou tudo junto.
Técnico: Entrada textual fornecida ao modelo para gerar uma completion. Pode incluir instruções, exemplos (few-shot), restrições e formato esperado.
Exemplo: Prompt ruim: “faz um componente”. Melhor: “cria um botão React com variantes primary/secondary, CSS Modules, prop disabled e testes”.
Erro comum: Achar que prompt é só “a pergunta”. Inclui contexto, restrições, exemplos e formato.
System prompt
Simples: Instruções iniciais que definem como o modelo deve se comportar, como um briefing antes da conversa.
Técnico: Mensagem com role “system” que define comportamento, tom, restrições e capacidades do assistente. Tem prioridade sobre mensagens do usuário.
Exemplo: “Você é um revisor de código sênior. Aponte problemas de segurança primeiro.” Isso molda todas as respostas.
Erro comum: Ignorar o system prompt e reclamar que o modelo “não entende o que você quer”.
Ferramentas e interfaces
IDE
Simples: O editor de código onde você escreve software. VS Code, Cursor, Windsurf são exemplos.
Técnico: Integrated Development Environment. No contexto de IA, IDEs modernas integram LLMs diretamente na interface de edição.
Exemplo: Cursor tem IA embutida. VS Code com Copilot vira IDE com IA via plugin. A diferença é integração nativa vs. extensão.
Erro comum: Achar que IDE com IA é automaticamente melhor que terminal com IA. São interfaces diferentes pra workflows diferentes.
CLI
Simples: Interface de linha de comando. Você digita no terminal e recebe texto de volta. Claude Code roda assim.
Técnico: Command Line Interface. No contexto de IA, CLIs como Claude Code operam diretamente no sistema de arquivos e terminal, com acesso a ferramentas do sistema.
Exemplo: Em vez de clicar em menus, você digita um comando no terminal. A IA lê o arquivo, analisa e responde ali mesmo.
Erro comum: Achar que CLI é só pra devs hardcore. CLIs de IA modernas são conversacionais e acessíveis.
Autocomplete
Simples: A IA sugere o próximo trecho de código enquanto você digita. Tipo o autocomplete do celular, mas pra código.
Técnico: Completamento de código via LLMs, usando contexto do arquivo atual e arquivos abertos para prever trechos úteis em tempo real.
Exemplo: Você começa a digitar “function validate” e a IA sugere o corpo inteiro da função. Aceita com Tab ou ignora.
Erro comum: Aceitar toda sugestão sem ler. Autocomplete é estatisticamente provável, não necessariamente correto.
Contexto de código
Simples: As informações sobre seu projeto que a IA usa pra entender o que você está fazendo: arquivos abertos, estrutura, dependências.
Técnico: Informações do repositório fornecidas ao modelo: árvore de arquivos, conteúdo relevante, tipos, imports, testes, configurações.
Exemplo: O Cursor olha não só o arquivo atual mas também imports e tipos de outros arquivos. Quanto melhor o contexto, melhor a sugestão.
Erro comum: Achar que a IA “conhece” todo seu projeto automaticamente. Cada ferramenta tem limites de contexto.
Agentes e sistemas
Agente
Simples: Um programa que usa IA pra tomar decisões e executar ações, não só responder perguntas.
Técnico: Sistema que combina LLM, ferramentas (tool use) e lógica de controle para executar tarefas de forma autônoma. Planeja, executa e itera até atingir o resultado.
Exemplo: Você pede “refatora esse módulo pra usar o padrão repository”. O agente lê os arquivos, edita o código, roda os testes e reporta o resultado.
Erro comum: Confundir chatbot com agente. Chatbot responde. Agente executa tarefas com autonomia e ferramentas.
Agente de código
Simples: Um agente especializado em escrever, editar e revisar código, com acesso direto ao seu projeto.
Técnico: Agente de IA com ferramentas de desenvolvimento: leitura/escrita de arquivos, terminal, navegação no repositório, execução de testes.
Exemplo: Claude Code é um agente de código. Cursor em modo agente também funciona assim.
Erro comum: Dar autonomia total sem supervisão. O output precisa ser validado antes de ir pra produção.
MCP
Simples: Um padrão que permite que ferramentas de IA se conectem a serviços externos de forma organizada. Tipo um USB pra IA.
Técnico: Model Context Protocol. Protocolo aberto que padroniza como aplicações de IA acessam fontes de dados e ferramentas externas via servidores compartilhados.
Exemplo: Um servidor MCP de GitHub permite que qualquer ferramenta compatível acesse issues, PRs e repositórios sem implementar a integração do zero.
Erro comum: Achar que MCP já é um padrão universal consolidado. É útil, mas o ecossistema ainda está em evolução.
Harness
Simples: O sistema completo de trabalho de um agente: instruções, ferramentas, regras, contexto. O “ambiente” onde ele opera.
Técnico: Camada de orquestração que define como um agente opera: system prompt, ferramentas, regras de projeto, contexto persistente, validações automáticas e critérios de aceite.
Exemplo: Um harness pode incluir: AGENTS.md com regras do projeto (CLAUDE.md no Claude Code), pre-commit hook que roda testes, e acesso a ferramentas via MCP.
Erro comum: Tratar harness como algo que você “instala”. É uma prática construída ao longo do tempo.
Por que isso importa
Vocabulário alinhado parece detalhe, mas é o que faz uma reunião sobre IA render em vez de cada um entender uma coisa diferente.
Quando um PM pede “usa o modelo mais rápido”, pode estar querendo dizer “mais barato”, “menor latência” ou “o que eu vi no Twitter”. Sem vocabulário alinhado, cada um interpreta do seu jeito e o resultado é retrabalho.
- Times multidisciplinares tomam decisões sobre IA juntos. Dev, QA, PM e designer precisam de vocabulário compartilhado.
- Ferramentas mudam rápido. O que era autocomplete virou agente; vocabulário desatualizado gera decisões desatualizadas.
- Fornecedores usam jargão de propósito. Sem entender os termos, você não avalia o que estão vendendo.
Exemplo aplicado
Uma reunião real entre PM, QA e dev:
PM: “A gente precisa usar IA pra acelerar os testes.”
QA: “Tipo o que? Gerar casos de teste? Rodar testes automáticos? Analisar resultados?”
Dev: “A gente pode usar um agente de código pra gerar testes a partir da spec. Mas precisa de contexto de código bom. Se o projeto não tem tipos, o modelo vai chutar.”
PM: “Então o modelo precisa ver nosso código?”
Dev: “Sim. O modelo recebe o código como contexto. Quanto mais organizado o projeto, melhor o output. Mas tem limite de tokens, então não dá pra mandar tudo de uma vez.”
QA: “E se der errado? O modelo pode gerar teste que passa mas não testa nada.”
Dev: “Exato. Por isso a gente revisa. A inferência gera um rascunho. A validação é humana.”
Onde isso quebra
- Jargão como barreira: Termos técnicos pra impressionar em vez de comunicar criam barreira, não vocabulário.
- Definições rígidas demais: Esses termos estão em evolução. Não trate esse glossário como lei.
- Decorar sem entender: Saber a definição técnica não ajuda se você não entende por que importa na prática.
O que levar daqui
- Alinhe o vocabulário do time antes de decidir sobre IA. É pré-requisito, não detalhe
- Adapte a explicação ao público: simples com PM/stakeholders, técnica com devs
- Separe produto de modelo na conversa. Isso evita mal-entendidos sobre custo e capacidade
- Revise esses termos a cada trimestre. O significado evolui rápido