Vocabulário essencial

Glossário: os termos que você precisa conhecer

iniciante 11 min de leitura

Em 30 segundos

Prompt, token, contexto, agente. O glossário que organiza o vocabulário sem jargão desnecessário.

Se essas palavras parecem tudo a mesma coisa

LLM, modelo, token, prompt, contexto, agente, MCP, harness. Se você já ouviu essas palavras numa reunião e fingiu que entendeu, essa sessão é pra você.

O vocabulário de IA cresceu rápido, mas o problema não é a quantidade de termos. É que muita gente usa as mesmas palavras pra falar de coisas diferentes. Um PM fala “modelo” querendo dizer o produto (ChatGPT). Um dev fala “modelo” querendo dizer a rede neural (GPT-4o). Aqui você encontra o mínimo que precisa pra participar dessas conversas sem se perder.

Um programa de computador treinado pra ler e escrever texto. Você manda uma pergunta, ele gera uma resposta.

O "cérebro" treinado que processa texto. Diferentes modelos têm diferentes capacidades, velocidades e custos.

O processo de pedir pro modelo gerar uma resposta.

Um pedaço de texto que o modelo processa. Pode ser uma palavra inteira, parte de uma palavra, ou um caractere especial.

Tudo que o modelo "vê" quando gera uma resposta: sua pergunta, o histórico da conversa, instruções do sistema, arquivos anexados.

O texto que você manda pro modelo. Pode ser uma pergunta, um pedido, uma instrução, ou tudo junto.

Instruções iniciais que definem como o modelo deve se comportar. É como um briefing antes da conversa começar.

O editor de código onde você escreve software. VS Code, Cursor, Windsurf são exemplos.

Interface de linha de comando. Você digita texto no terminal e recebe texto de volta. Ferramentas como Claude Code rodam assim.

Quando a IA sugere o próximo trecho de código enquanto você digita. Tipo o autocomplete do celular, mas pra código.

As informações sobre seu projeto que a IA usa pra entender o que você está fazendo: arquivos abertos, estrutura de pastas, dependências.

Um programa que usa IA pra tomar decisões e executar ações sozinho, não só responder perguntas.

Um agente especializado em escrever, editar e revisar código. Tem acesso ao seu projeto e pode fazer mudanças diretamente.

Um padrão que permite que ferramentas de IA se conectem a serviços externos de forma organizada. Tipo um USB pra IA.

O sistema completo de trabalho de um agente de IA: instruções, ferramentas, regras, contexto. É o "ambiente" onde o agente opera.

Os termos que importam

Fundamentos de IA

LLM

Simples: Um programa treinado pra ler e escrever texto. Você manda uma pergunta, ele gera uma resposta.

Técnico: Large Language Model. Rede neural com bilhões de parâmetros treinada em grandes volumes de texto. Gera saída token a token com base em probabilidade condicional.

Exemplo: Quando você pede pro ChatGPT explicar um bug, o LLM por trás (GPT-4o) processa seu texto e gera a resposta palavra por palavra.

Erro comum: Achar que LLM é sinônimo de ChatGPT. ChatGPT é um produto; GPT-4o é o LLM dentro dele.

Modelo

Simples: O “cérebro” treinado que processa texto. Modelos diferentes têm capacidades, velocidades e custos diferentes.

Técnico: Pesos e arquitetura de rede neural resultantes de um processo de treinamento. Cada modelo tem perfil próprio de raciocínio, velocidade, janela de contexto e custo.

Exemplo: Claude Sonnet é um modelo. Claude (o chat) é o produto. Você interage com o produto, mas quem “pensa” é o modelo.

Erro comum: Confundir modelo com produto. Quando alguém fala “vamos usar o Claude”, pergunte se é o chat, a API ou um modelo específico.

Inferência

Simples: O processo de pedir pro modelo gerar uma resposta. Cada mensagem enviada dispara uma inferência.

Técnico: Execução do modelo sobre uma entrada (prompt) para gerar uma saída (completion). Consome recursos computacionais e é cobrada por token na maioria das APIs.

Exemplo: Você pergunta “como funciona async/await em TypeScript?” e recebe uma explicação. Essa geração é uma inferência.

Erro comum: Achar que inferência é instantânea e gratuita. Cada uma custa tempo e dinheiro. Modelos maiores custam mais.

Token

Simples: Um pedaço de texto que o modelo processa. Pode ser uma palavra, parte de uma palavra, ou um caractere especial.

Técnico: Unidade atômica de processamento de um LLM. O texto é dividido em tokens pelo tokenizer. Em média, 1 token ≈ 4 caracteres em inglês ou ~3 em português.

Exemplo: Um arquivo de 500 linhas de código pode ter 3000 a 5000 tokens. Isso importa porque modelos têm limite de tokens.

Erro comum: Ignorar a contagem de tokens. Se você manda um arquivo gigante e o modelo “esquece” o começo, provavelmente estourou a janela de contexto.

Contexto

Simples: Tudo que o modelo “vê” ao gerar uma resposta: sua pergunta, histórico, instruções do sistema, arquivos anexados.

Técnico: Sequência completa de tokens fornecida ao modelo, incluindo system prompt, histórico e entrada atual. Limitada pela janela de contexto (context window).

Exemplo: Se você manda 3 arquivos e pede uma revisão, o contexto é tudo junto. Se passar do limite, o modelo corta o que não cabe.

Erro comum: Achar que o modelo “lembra” conversas anteriores. Ele só sabe o que está no contexto atual.

Interação com IA

Prompt

Simples: O texto que você manda pro modelo: pergunta, pedido, instrução, ou tudo junto.

Técnico: Entrada textual fornecida ao modelo para gerar uma completion. Pode incluir instruções, exemplos (few-shot), restrições e formato esperado.

Exemplo: Prompt ruim: “faz um componente”. Melhor: “cria um botão React com variantes primary/secondary, CSS Modules, prop disabled e testes”.

Erro comum: Achar que prompt é só “a pergunta”. Inclui contexto, restrições, exemplos e formato.

System prompt

Simples: Instruções iniciais que definem como o modelo deve se comportar, como um briefing antes da conversa.

Técnico: Mensagem com role “system” que define comportamento, tom, restrições e capacidades do assistente. Tem prioridade sobre mensagens do usuário.

Exemplo: “Você é um revisor de código sênior. Aponte problemas de segurança primeiro.” Isso molda todas as respostas.

Erro comum: Ignorar o system prompt e reclamar que o modelo “não entende o que você quer”.

Ferramentas e interfaces

IDE

Simples: O editor de código onde você escreve software. VS Code, Cursor, Windsurf são exemplos.

Técnico: Integrated Development Environment. No contexto de IA, IDEs modernas integram LLMs diretamente na interface de edição.

Exemplo: Cursor tem IA embutida. VS Code com Copilot vira IDE com IA via plugin. A diferença é integração nativa vs. extensão.

Erro comum: Achar que IDE com IA é automaticamente melhor que terminal com IA. São interfaces diferentes pra workflows diferentes.

CLI

Simples: Interface de linha de comando. Você digita no terminal e recebe texto de volta. Claude Code roda assim.

Técnico: Command Line Interface. No contexto de IA, CLIs como Claude Code operam diretamente no sistema de arquivos e terminal, com acesso a ferramentas do sistema.

Exemplo: Em vez de clicar em menus, você digita um comando no terminal. A IA lê o arquivo, analisa e responde ali mesmo.

Erro comum: Achar que CLI é só pra devs hardcore. CLIs de IA modernas são conversacionais e acessíveis.

Autocomplete

Simples: A IA sugere o próximo trecho de código enquanto você digita. Tipo o autocomplete do celular, mas pra código.

Técnico: Completamento de código via LLMs, usando contexto do arquivo atual e arquivos abertos para prever trechos úteis em tempo real.

Exemplo: Você começa a digitar “function validate” e a IA sugere o corpo inteiro da função. Aceita com Tab ou ignora.

Erro comum: Aceitar toda sugestão sem ler. Autocomplete é estatisticamente provável, não necessariamente correto.

Contexto de código

Simples: As informações sobre seu projeto que a IA usa pra entender o que você está fazendo: arquivos abertos, estrutura, dependências.

Técnico: Informações do repositório fornecidas ao modelo: árvore de arquivos, conteúdo relevante, tipos, imports, testes, configurações.

Exemplo: O Cursor olha não só o arquivo atual mas também imports e tipos de outros arquivos. Quanto melhor o contexto, melhor a sugestão.

Erro comum: Achar que a IA “conhece” todo seu projeto automaticamente. Cada ferramenta tem limites de contexto.

Agentes e sistemas

Agente

Simples: Um programa que usa IA pra tomar decisões e executar ações, não só responder perguntas.

Técnico: Sistema que combina LLM, ferramentas (tool use) e lógica de controle para executar tarefas de forma autônoma. Planeja, executa e itera até atingir o resultado.

Exemplo: Você pede “refatora esse módulo pra usar o padrão repository”. O agente lê os arquivos, edita o código, roda os testes e reporta o resultado.

Erro comum: Confundir chatbot com agente. Chatbot responde. Agente executa tarefas com autonomia e ferramentas.

Agente de código

Simples: Um agente especializado em escrever, editar e revisar código, com acesso direto ao seu projeto.

Técnico: Agente de IA com ferramentas de desenvolvimento: leitura/escrita de arquivos, terminal, navegação no repositório, execução de testes.

Exemplo: Claude Code é um agente de código. Cursor em modo agente também funciona assim.

Erro comum: Dar autonomia total sem supervisão. O output precisa ser validado antes de ir pra produção.

MCP

Simples: Um padrão que permite que ferramentas de IA se conectem a serviços externos de forma organizada. Tipo um USB pra IA.

Técnico: Model Context Protocol. Protocolo aberto que padroniza como aplicações de IA acessam fontes de dados e ferramentas externas via servidores compartilhados.

Exemplo: Um servidor MCP de GitHub permite que qualquer ferramenta compatível acesse issues, PRs e repositórios sem implementar a integração do zero.

Erro comum: Achar que MCP já é um padrão universal consolidado. É útil, mas o ecossistema ainda está em evolução.

Harness

Simples: O sistema completo de trabalho de um agente: instruções, ferramentas, regras, contexto. O “ambiente” onde ele opera.

Técnico: Camada de orquestração que define como um agente opera: system prompt, ferramentas, regras de projeto, contexto persistente, validações automáticas e critérios de aceite.

Exemplo: Um harness pode incluir: AGENTS.md com regras do projeto (CLAUDE.md no Claude Code), pre-commit hook que roda testes, e acesso a ferramentas via MCP.

Erro comum: Tratar harness como algo que você “instala”. É uma prática construída ao longo do tempo.

Por que isso importa

Vocabulário alinhado parece detalhe, mas é o que faz uma reunião sobre IA render em vez de cada um entender uma coisa diferente.

Quando um PM pede “usa o modelo mais rápido”, pode estar querendo dizer “mais barato”, “menor latência” ou “o que eu vi no Twitter”. Sem vocabulário alinhado, cada um interpreta do seu jeito e o resultado é retrabalho.

  • Times multidisciplinares tomam decisões sobre IA juntos. Dev, QA, PM e designer precisam de vocabulário compartilhado.
  • Ferramentas mudam rápido. O que era autocomplete virou agente; vocabulário desatualizado gera decisões desatualizadas.
  • Fornecedores usam jargão de propósito. Sem entender os termos, você não avalia o que estão vendendo.

Exemplo aplicado

Uma reunião real entre PM, QA e dev:

PM: “A gente precisa usar IA pra acelerar os testes.”

QA: “Tipo o que? Gerar casos de teste? Rodar testes automáticos? Analisar resultados?”

Dev: “A gente pode usar um agente de código pra gerar testes a partir da spec. Mas precisa de contexto de código bom. Se o projeto não tem tipos, o modelo vai chutar.”

PM: “Então o modelo precisa ver nosso código?”

Dev: “Sim. O modelo recebe o código como contexto. Quanto mais organizado o projeto, melhor o output. Mas tem limite de tokens, então não dá pra mandar tudo de uma vez.”

QA: “E se der errado? O modelo pode gerar teste que passa mas não testa nada.”

Dev: “Exato. Por isso a gente revisa. A inferência gera um rascunho. A validação é humana.”

Onde isso quebra

  • Jargão como barreira: Termos técnicos pra impressionar em vez de comunicar criam barreira, não vocabulário.
  • Definições rígidas demais: Esses termos estão em evolução. Não trate esse glossário como lei.
  • Decorar sem entender: Saber a definição técnica não ajuda se você não entende por que importa na prática.

O que levar daqui

  • Alinhe o vocabulário do time antes de decidir sobre IA. É pré-requisito, não detalhe
  • Adapte a explicação ao público: simples com PM/stakeholders, técnica com devs
  • Separe produto de modelo na conversa. Isso evita mal-entendidos sobre custo e capacidade
  • Revise esses termos a cada trimestre. O significado evolui rápido

Quer se aprofundar?

Documentação

Próxima sessão Mapa de ferramentas

Ferramentas: IDEs vs CLI

Continuar