Capítulo 11 · Agentes · 10 min

Do modelo que responde ao modelo que age

Tool use, ciclo ReAct, tarefas multi-etapa. Como um LLM se torna um agente capaz de agir no mundo.

Pensar, agir, observar

Um agente nao e necessariamente um modelo mais inteligente. E um modelo colocado dentro de um ciclo em que pode decidir uma acao, chamar uma ferramenta, observar o resultado e continuar.

Observe o loop: o modelo pensa, escolhe uma ferramenta, lê o resultado, recomeça. Cada ciclo é uma nova predição de token — o «agente» emerge de um LLM ao qual ensinaram a chamar funções, não de uma nova arquitetura.

O ciclo ReAct

O padrao classico se chama ReAct: Reason + Act.

  1. O modelo raciocina sobre o proximo passo.
  2. Produz uma acao estruturada: chamar uma ferramenta, buscar, calcular.
  3. O sistema executa essa acao.
  4. O resultado volta para o contexto.
  5. O modelo decide se precisa de outro passo ou se pode responder.

O modelo nao executa a ferramenta dentro dos pesos. Ele escreve uma chamada que o programa ao redor interpreta.

Por que funciona

Um LLM e bom com linguagem, planejamento aproximado e transformacao de informacao. E ruim com aritmetica exata, dados em tempo real e acoes externas.

Ferramentas compensam essas fraquezas:

  • calculadora para numeros exatos
  • busca para informacao recente
  • banco de dados para dados internos
  • API para agir em um sistema

O agente combina linguagem e execucao.

Riscos

Dar ferramentas a um modelo tambem aumenta o risco:

  • ele pode escolher a ferramenta errada
  • pode interpretar mal uma observacao
  • pode entrar em ciclos
  • pode executar acoes amplas demais

Por isso um agente serio precisa de limites: permissoes, validacoes, logs, confirmacoes humanas para acoes sensiveis.

MCP: rumo a um padrao para ferramentas

No comeco, cada fornecedor definia seu proprio formato de tool use: a OpenAI tinha function calling, a Anthropic tinha seu protocolo interno, cada framework agentico reinventava a roda. Resultado: incompatibilidades, integracoes refeitas para cada modelo, ecossistema fragmentado.

Em novembro de 2024, a Anthropic publicou o Model Context Protocol (MCP): um padrao aberto para descrever ferramentas, recursos e prompts de forma independente do modelo. Um servidor MCP expoe um conjunto de ferramentas (por exemplo, "leia este arquivo", "consulte este banco de dados"). Qualquer cliente compativel com MCP — Claude Desktop, Cursor, extensoes do VSCode, frameworks agenticos — pode se conectar a ele.

A analogia que aparece com frequencia: o MCP esta para os LLMs como o USB-C esta para os perifericos. Uma porta comum.

A adocao foi rapida: OpenAI, Microsoft e a maioria dos fornecedores principais anunciaram suporte ao MCP em 2025. Tornou-se de fato o protocolo padrao para tool use.

Code interpreter, sandboxes, computer use

Algumas classes de ferramentas particularmente importantes:

Code interpreter. Um sandbox Python (as vezes JavaScript) onde o modelo pode executar codigo arbitrario. Calculos precisos, manipulacao de dados, geracao de graficos — tudo o que os LLMs fazem mal nativamente, eles podem delegar ao Python. Disponivel na OpenAI, Claude, Google.

Browser / web automation. Uma ferramenta que torna o modelo capaz de clicar, rolar, preencher formularios em paginas web. A Anthropic chama isso de computer use; a OpenAI oferece o Operator. Ainda fragil, mas evolui rapido.

File system & shell. Uma ferramenta que da acesso a um disco virtual e a um terminal. O coracao dos "coding agents" como Cursor, Cline, Aider, Claude Code.

Memoria de longo prazo

O contexto de um agente cresce, mas continua limitado. Como um assistente reconhece voce na proxima conversa? Com uma memoria de longo prazo externa.

Varias abordagens:

  • Memoria vetorial — cada interacao importante e resumida e armazenada como embedding. A cada nova conversa, recuperam-se as memorias relevantes (RAG, versao memoria).
  • Perfil de usuario estruturado — o agente mantem um dossie sobre o usuario (preferencias, projetos em andamento, historico).
  • Memoria procedural — o agente guarda receitas que funcionaram ("para resumir um paper, siga estes passos").

ChatGPT introduziu memoria em 2024, Claude em 2025. E uma das areas mais ativas no desenho de agentes.

O proximo passo

Outra forma de adaptar um modelo nao e dar ferramentas, mas alterar uma pequena parte dos pesos para um dominio concreto. Isso e fine-tuning, especialmente LoRA.

Atualizado em

Agentes LLM: do modelo que responde ao que age · Step by Token