Entendendo modelos

LLMs e os modelos mais usados

intermediário 15 min de leitura

Em 30 segundos

Codex, Claude, Gemini, Gemma, GLM, Composer. Como funcionam por cima, o que diferencia um do outro e como escolher.

Produto não é modelo

Essa é a confusão número um. E a que mais custa tempo e decisões erradas.

ChatGPT é um produto. Você abre no navegador, digita uma pergunta, recebe uma resposta. Por dentro, o ChatGPT usa modelos como GPT-5.3-Codex. Quando a OpenAI lança um modelo novo, o produto continua o mesmo, mas o “cérebro” muda. A mesma lógica vale pro Claude (com modelos como Sonnet 4.6, Opus 4.7, Haiku 4.5) e pro Gemini (com modelos como Gemini 2.5 Pro).

A regra simples: produto é onde você interage. Modelo é quem “pensa”.

Como modelos funcionam (sem virar cientista)

Você não precisa entender matemática de redes neurais pra trabalhar com LLMs. Mas entender 4 conceitos muda como você usa qualquer ferramenta:

Treinamento

Modelos são treinados em volumes enormes de texto: livros, artigos, código, páginas web. O modelo aprende padrões estatísticos e calcula qual token tem mais probabilidade de vir depois do anterior. Isso explica por que modelos geram texto que parece correto mas às vezes é plausível e errado: eles otimizam pra “provável”, não pra “verdadeiro”.

Tokens e janela de contexto

O modelo divide texto em tokens e processa um de cada vez. Cada modelo tem um limite de quantos tokens consegue processar de uma vez: a janela de contexto. Em 2026, janelas vão de ~128K tokens até ~1M+, mas um projeto médio de software pode ter milhões de tokens. Você ainda precisa escolher o que vai no contexto.

Inferência e custo

Cada mensagem enviada e resposta recebida é uma inferência, e cada inferência custa dinheiro nas APIs. Modelos maiores custam mais por token. “Usar o melhor modelo pra tudo” pode custar 10x mais do que “usar o modelo certo pra cada tarefa”.

Limitações reais

Modelos não sabem o que não sabem e geram respostas mesmo sem informação suficiente. Isso se chama alucinação. Modelos também têm corte de conhecimento: se você pergunta sobre algo lançado ontem, o modelo pode inventar uma resposta baseada em padrões, não em fatos.

Perfis por tarefa, não ranking

Não existe “o melhor modelo”. Existe o modelo certo pra tarefa certa. Em vez de ranking, pense em perfis:

GPT-5.3-Codex (OpenAI)

Produto: ChatGPT

Perfil: Modelo de código mais avançado da OpenAI. Feito pra tarefas complexas com múltiplos passos, como implementar features inteiras ou debugar problemas difíceis.

Melhor pra: Tarefas complexas de código, workflows agênticos e autônomos.

Limitações: Caro ($2/$10 por milhão de tokens). Já está sendo substituído pelo GPT-5.4.

Claude Opus 4.7 (Anthropic)

Produto: Claude

Perfil: Raciocínio profundo e nuançado. Janela de contexto de 1 milhão de tokens — cabe um projeto inteiro.

Melhor pra: Planejar refactors grandes, revisar arquitetura, tarefas agênticas complexas.

Limitações: Mais lento e mais caro. Excessivo pra tarefas simples.

Claude Sonnet 4.6 (Anthropic)

Produto: Claude

Perfil: Equilíbrio entre velocidade e qualidade. Forte em código e instruções longas.

Melhor pra: Escrever e revisar código, seguir especificações detalhadas.

Limitações: Pode ser conservador demais. Janela de contexto grande mas não ilimitada.

Claude Haiku 4.5 (Anthropic)

Produto: Claude

Perfil: O mais rápido e barato da família Claude. Performance de código surpreendente pra o tamanho — alcança nível do Sonnet 4 em vários benchmarks.

Melhor pra: Tarefas de código rápidas com custo baixo, automação em volume.

Limitações: Janela menor (200K tokens). Raciocínio menos profundo que Opus.

Gemini 2.5 Pro (Google)

Produto: Gemini

Perfil: Janela de contexto muito grande. Forte em multimodal e pesquisa.

Melhor pra: Analisar documentos longos, explorar e sintetizar informação.

Limitações: Qualidade de código pode variar. Menos previsível em instruções complexas.

Gemma 4 (Google)

Produto: Gemma (open-source)

Perfil: Família de modelos open source do Google. Vai de 2B (roda no celular) a 31B (roda em GPU de 24GB). Licença Apache 2.0 — pode usar sem restrição comercial.

Melhor pra: Rodar local com privacidade total, projetos open source sem custo de API.

Limitações: Dificuldade com tarefas agênticas. Modelo maior (31B) requer 24GB de VRAM.

Llama 4 (Meta)

Produto: Llama (open-weight)

Perfil: Open-weight. Pode rodar localmente sem depender de API externa.

Melhor pra: Projetos com requisitos de privacidade, fine-tuning pra domínios específicos.

Limitações: Requer hardware potente. Qualidade inferior aos melhores modelos proprietários.

DeepSeek V3 (DeepSeek)

Produto: DeepSeek (open-weight)

Perfil: Open-weight com qualidade competitiva. Forte em código e raciocínio.

Melhor pra: Geração de código com custo baixo, projetos com orçamento limitado.

Limitações: Ecossistema menor. Disponibilidade pode variar por região.

MiniMax M2.7 (MiniMax)

Produto: MiniMax

Perfil: Modelo chinês com custo extremamente baixo. Arquitetura MoE com 230B parâmetros mas só 10B ativos por vez, o que barateia muito a inferência.

Melhor pra: Código com orçamento muito limitado, tarefas sem urgência de velocidade.

Limitações: Inferência lenta (46-53 tokens/s). Muito verboso — gera muito mais texto do que o necessário.

GLM-5.1 (Z.ai)

Produto: GLM (open-source)

Perfil: Modelo open source chinês com licença MIT. Líder no SWE-Bench Pro (58.4%), superando GPT-5.4 e Opus 4.6. Pesos abertos no Hugging Face.

Melhor pra: Código e tarefas de engenharia de software, projetos que precisam de modelo open source potente.

Limitações: Só texto (sem multimodal). Modelo gigante (744B) — difícil de rodar localmente.

Composer 2 (Anysphere/Cursor)

Produto: Cursor

Perfil: Modelo feito exclusivamente pro Cursor. Construído sobre o Kimi K2.5 (Moonshot AI) com 1 trilhão de parâmetros e 32B ativos. Supera Opus 4.6 em benchmarks de código por uma fração do custo.

Melhor pra: Escrever e editar código dentro do Cursor, refactors de código.

Limitações: Só funciona dentro do Cursor — sem API externa. Fraco em tarefas que não são código.

Por que isso importa

Entender modelos não é sobre virar especialista em IA. É sobre tomar decisões informadas: saber qual modelo está por trás da ferramenta, quanto custa, e onde ele falha. Entender modelos é a diferença entre usar IA no escuro e usar IA com intenção.

Exemplo aplicado

Mesmo projeto, três tarefas diferentes, três modelos diferentes:

Tarefa 1: Explorar uma ideia de feature. O PM abre o Claude (Haiku 4.5) pra uma conversa rápida sobre complexidade de adicionar webhooks. Rápido, barato, bom pra exploração.

Tarefa 2: Planejar a implementação. O tech lead usa Claude Opus 4.7 pra analisar a arquitetura atual e propor um plano que considera todos os módulos afetados. Mais lento e caro, mas o raciocínio profundo e a janela de 1M tokens justificam.

Tarefa 3: Implementar o código. O dev usa Claude Sonnet 4.6 via Claude Code. É rápido pra iteração e forte em código, sem precisar do Opus pra cada função individual.

Três modelos diferentes. Nenhum é “o melhor”. Cada um é o certo pra aquela tarefa.

Onde isso quebra

  • Adoração de benchmark: Rankings medem performance em tarefas padronizadas, não no seu projeto. Benchmarks são um sinal, não uma resposta.

  • Maior não é melhor: O modelo mais caro não é automaticamente o melhor pra sua tarefa. Usar Opus pra um autocomplete é como usar um caminhão pra ir na padaria.

  • Ignorar limitações: Todo modelo alucina. Todo modelo tem corte de conhecimento. Todo modelo pode gerar código que compila mas não funciona.

Bloco interativo

Escolha um tipo de tarefa pra ver os modelos que se encaixam.

Produto: ChatGPT

Produto: Claude

Produto: Claude

Produto: Gemini

Produto: Llama (open-weight)

Produto: DeepSeek (open-weight)

Produto: Claude

Produto: Gemma (open-source)

Produto: MiniMax

Produto: GLM (open-source)

Produto: Cursor

O que levar daqui

  • Separe produto de modelo. Saiba qual modelo está por trás da ferramenta que você usa
  • Escolha o modelo pela tarefa, não pelo ranking. Modelos rápidos resolvem a maioria do dia a dia
  • Leve custo e janela de contexto em conta antes de mandar tudo pro modelo mais caro
  • Nunca confie cegamente. Todo modelo alucina, revisão humana não é opcional

Quer se aprofundar?

Documentação

Artigos

Próxima sessão Níveis de maturidade

A evolução do desenvolvimento com IA

Continuar