19 palestras da Anthropic em 1 post: o que muda no seu dia a dia técnico a partir de hoje
Code with Claude: Guia Técnico — Tudo que um Profissional de TI Precisa Saber
Claude Code, MCP, SDK, Prompting avançado e vibe coding responsável. Com foco em profissionais técnicos: DBA, dev, devops, engenharia de dados, BI, arquitetura.
Resumo por
Fabrício Lima · LinkedIn ↗ · YouTube ↗
📝 Sobre esse resumo
A Anthropic publicou uma série de palestras da conferência Code with Claude no YouTube. São 19 vídeos somando mais de 10 horas de conteúdo.
Em vez de assistir tudo, peguei as transcrições de todas elas e processei com IA com foco em profissionais técnicos — extraí aqui as sacadas que importam na prática, organizadas por tema. Se você é gestor, tem um post complementar com visão estratégica de negócio.
Nota: um dos vídeos da playlist (Building AI agents with Amazon Bedrock) não estava disponível pra extração de legendas no YouTube, então não está incluído aqui. Os outros 19 estão cobertos.
📚 Índice
1. Claude 4 — o que mudou tecnicamente
2. Claude Code na prática (Boris + Cal)
3. CLAUDE.md, atalhos e context management
4. Prompting 101 — estrutura de bom prompt
5. Prompting para Agentes
6. Ferramentas nativas da API (Code Exec, Web Search, MCP)
7. MCP além de ferramentas (prompts & resources)
8. Claude Code SDK e automação headless
9. Vibe coding responsável em produção
10. Casos técnicos: Shopify Roast, Sourcegraph AMP
11. Cheat sheet pro time
12. Links dos vídeos
1. Claude 4 — o que mudou tecnicamente
Taking Claude to the Next Level (Lisa Crofoot) + Keynote
Quatro melhorias que impactam diretamente seu código:
Interleaved thinking com tool use
Claude agora alterna entre pensar e chamar ferramentas. Antes, com Claude 3.7, todo o raciocínio era feito no começo. Agora ele pensa, executa, analisa o resultado, pensa de novo.
Implicação prática: agentes de horizonte longo detectam erros no meio do caminho e ajustam plano. Você pode orientar o quê Claude deve pensar entre chamadas ("reflita sobre a qualidade dos resultados antes de seguir").
Parallel tool calling
Com 3.7 era uma ferramenta por turno (frustrantemente lento). Com Claude 4, o modelo declara 8 chamadas de ferramentas em paralelo no mesmo objeto de resposta.
Economia de tokens e latência: um agente que fazia 8 chamadas sequenciais agora faz em 1 rodada. Menos ciclos de planning-act.
Memória externa (file-based)
Quando você dá ao Claude um sistema de arquivos pra ler/escrever, ele rastreia progresso ao longo de horas. Prova: Claude Opus 4 jogou Pokémon por 12h contínuas mantendo um plano de treinamento em arquivo (64 batalhas consecutivas).
Implementação: exponha uma ferramenta de leitura/escrita de arquivos e instrua Claude a criar seu próprio workspace de memória.
Instruction following + reward hacking -80%
O system prompt do Claude.ai caiu de 16k pra 4.8k tokens (-70%). Isso é porque Claude 4 segue instruções bem melhor em prompts longos (10k+ tokens).
Reward hacking (trapacear pra passar no teste): 80% menos em benchmark interno. Menos necessidade de revisar cada linha.
🎯 Qual modelo usar?
Opus 4 — Código em base grande/complexa, migrações, refatorações, agentes de horizonte longo, planejamento e orquestração.
Sonnet 4 — Rápido e eficiente. Greenfield coding, vibe coding, qualquer caso com humano no loop.
Regra prática: se Sonnet 3.7 acerta 60-70% na sua eval, hora de testar Opus 4.
⚠️ Ao migrar de 3.7: Claude 4 é menos over-eager por padrão. Se você tem frases tipo "faça só o que eu pedi" no system prompt, remova. Se você quer que ele vá além do pedido, diga explicitamente.
2. Claude Code na prática
Claude Code Best Practices (Cal) + Building Agents that Code (Boris)
🔧 Arquitetura por baixo dos panos
O Claude Code não faz nenhuma indexação, não usa RAG, não sobe seu código pra lugar nenhum. É um agente puro com três ferramentas simples:
◦ Ferramentas de arquivo (criar/editar)
◦ Bash terminal
◦ Agentic search (grep, find, glob)
Vantagens: zero setup, código fica local, modelo decide em tempo real o que buscar (usando o mesmo método que um dev novo usaria pra explorar uma base).
Dica #1 do Boris (criador)
Começa pedindo perguntas sobre a base de código
Na Anthropic, onboarding técnico caiu de 2-3 semanas pra 2-3 dias. Novos devs passam o primeiro dia só fazendo perguntas sobre a base.
Exemplos de perguntas boas:
◦ "Onde essa feature está implementada?"
◦ "Olha o git log dessa função e me conta por que os argumentos são esquisitos"
◦ "Como essa classe é instanciada? Me mostra exemplos"
◦ "O que eu shipei essa semana? Usa git log e meu username"
🛠️ Workflow recomendado
1. Explora → planeja → pede aprovação → codifica.
Em vez de pedir "implementa essa feature de 3k linhas", peça: "faz um plano, não escreve código ainda, roda por mim, pede aprovação antes de executar".
2. Dê uma forma dele verificar o próprio trabalho.
Unit tests, screenshots via puppeteer, iOS simulator. Se Claude vê o resultado, ele itera sozinho 2-3 vezes e quase sempre chega perto do perfeito.
3. CLAUDE.md, atalhos e context management
Boris + Cal (Anthropic)
📄 CLAUDE.md — o arquivo de memória do projeto
Arquivo especial lido automaticamente no início de cada sessão. Hierarquia:
◦ Enterprise policy — config global do time inteiro (enterprise route)
◦ Home directory — preferências pessoais
◦ Project root — checkin no git, compartilhado com o time
◦ CLAUDE.local.md — pessoal, não commitado
◦ Subdiretórios aninhados — só carrega quando Claude trabalha naquela pasta
O que colocar: comandos bash comuns (npm test, rake test), style guide, arquivos críticos, MCPs em uso, arquitetura em 1 parágrafo. Mantenha curto — se fica muito longo, consome contexto à toa.
⌨️ Atalhos essenciais
◦ Shift + Tab — auto-accept mode (edições sem confirmação)
◦ Escape — interrompe Claude no meio, você redireciona (seguro, não corrompe sessão)
◦ Escape + Escape — volta no histórico (feature escondida)
◦ # + texto — "lembra disso" — adiciona no CLAUDE.md
◦ ! + comando — modo bash, comando vai pro contexto
◦ Ctrl + R — mostra todo o output (mesmo que Claude vê)
◦ /compact — resume sessão longa, continua com contexto comprimido
◦ /clear — apaga tudo menos CLAUDE.md
◦ /memory — mostra todos os memory files ativos
◦ /resume — retoma sessão anterior
◦ --continue — flag pra continuar na inicialização
🌐 Context management
Claude tem janela de 200k tokens. Você vai atingir esse limite em sessões longas. Quando aparecer o warning no canto inferior direito:
Opção A: /clear se você terminou um chunk de trabalho e vai começar outro não-relacionado.
Opção B: /compact — Claude resume a sessão inteira como se fosse passar pra outro dev. A nova sessão começa com esse sumário e você continua. Essa funcionalidade foi pesadamente tunada pra não perder contexto importante.
🧠 Pro tips do Boris
Dictation no macOS. System Preferences → Accessibility → Dictation. Dois toques na tecla de dictation e você fala o prompt. Muito mais rápido pra prompts longos.
Múltiplos Claudes em paralelo. Use tmux ou abas. Cal conta que conhece gente rodando 4 simultaneamente. Ele mesmo só consegue gerenciar 2.
Pense antes, codifique depois. Escreva "think hard" no prompt pra ativar pensamento estendido visivelmente (texto cinza).
Commit automatizado. Em vez de escrever mensagem de commit você mesmo: "commit e push pra branch, abre PR". Claude procura padrões no git log pra formatar igual.
4. Prompting 101 — estrutura de bom prompt
Prompting 101 (Hannah e Christian, Applied AI)
Estrutura oficial da Anthropic pra prompts de API (não se aplica ao Claude.ai):
📝 As 10 partes
1. Task context — papel e tarefa
2. Tone context — objetivo? Criativo? Cauteloso?
3. Background data — conteúdo dinâmico
4. Detailed instructions — passo a passo
5. Examples — input/output esperado
6. Conversation history — se houver
7. Immediate task — tarefa atual
8. Thinking — pensar passo a passo antes
9. Output formatting — JSON? XML? Markdown?
10. Prefilled response — pré-começar a resposta
🔧 Use XML tags sempre
Claude foi treinado pra reconhecer XML. Delimite seções:
|
1 2 3 4 5 6 7 8 9 10 11 |
<instructions> Analise o formulário e dê um veredito. </instructions> <form> [conteúdo] </form> <final_verdict> [Claude responde aqui] </final_verdict> |
Bônus: trivial extrair só a parte que interessa via regex/parse.
💬 Prefill — "palavras na boca do Claude"
Quer saída JSON garantida? Comece a resposta dele com {.
Quer uma XML tag específica? Comece com <final_verdict>.
Claude continua no formato. Elimina preamble "Claro! Vou ajudar você…" e garante output estruturado.
🧠 Extended thinking como ferramenta
Em vez de "pense passo a passo" dentro do prompt, ative o thinking mode. Claude gera um bloco separado, mais eficiente em tokens, e você pode inspecionar o raciocínio.
Budget control: você define máximo. Modelo adapta até esse limite (não passa, mas pode ficar bem abaixo se não precisar).
Instrua o thinking: "ao pensar, primeiro considere qual fonte consultar, depois como estruturar" — muito melhor que instrução genérica.
5. Prompting para Agentes
Prompting for Agents (Hannah e Jeremy, Applied AI)
Agente = modelo usando ferramentas em loop. Diferente de prompts one-shot, aqui você quer um system prompt simples e deixar o modelo ser o modelo.
✅ 4 critérios pra decidir se usa agente
1. Complexidade — Consegue descrever passo a passo? Então não precisa de agente. Use workflow.
2. Valor — Agente consome muito token. Baixo valor? Abandone.
3. Ferramentas viáveis — Consegue dar ao agente o que ele precisa? Se não, restrinja o escopo.
4. Custo de erro — Erro irrecuperável? Coloca humano no loop.
✅ Bons casos
◦ Coding
◦ Pesquisa
◦ Computer use
◦ Análise de dados
❌ Casos ruins
◦ Tarefas simples
◦ Erros caros/irreversíveis
◦ Sem ferramentas viáveis
◦ Baixa alavancagem
🛠️ Construindo o prompt do agente
Comece simples. Não perca tempo escrevendo o prompt perfeito de primeira. Pergunta curta, veja o que falha, itera.
Não use few-shot examples tradicionais. Limitam demais os modelos de fronteira. Dê exemplos de como pensar, não inputs/outputs exatos.
Não peça "pense passo a passo". Redundante — modelos modernos já fazem. Em vez disso, oriente o quê pensar.
Permita tool calling paralelo explicitamente no prompt quando souber que várias ferramentas são independentes.
📊 Como avaliar
◦ LLM as judge — outro Claude avalia contra uma rubrica. Robústo a variações semânticas.
◦ Tool precision — verifica programaticamente se as ferramentas certas foram usadas.
◦ Tau-bench — verifica estado final correto do sistema (banco atualizado, arquivo modificado, etc).
◦ Nada substitui revisão humana de transcrições.
6. Ferramentas nativas da API
Building Blocks for Tomorrow’s AI Agents (Brad Abrams)
Você pode usar 3 ferramentas poderosas sem implementar nada. Declare o tools no Messages API:
Python em contêineres isolados
Claude escreve Python, contêiner dedicado da Anthropic executa, retorna stdout/stderr/arquivos gerados. Cada organização tem contêineres isolados.
Setup:
|
1 2 3 |
tools: [ { type: "code_execution_20250522", name: "code_execution" } ] |
50 horas de contêiner grátis. Depois escala com pricing.
Busca agêntica com citações
Não é uma query só. Claude decide quantas buscas, quando aprofundar, quando parar. Retorna com citações automáticas (footnotes em cada fato).
Parâmetros úteis: allowed_domains (restringe fontes) e max_uses (limita turnos pra conservar tokens).
MCPs remotos direto na API
Declare MCP servers (Asana, Zapier, Gmail, GitHub, etc) no parâmetro mcp_servers:
|
1 2 3 4 5 6 7 8 |
mcp_servers: [ { type: "url", url: "https://mcp.asana.com/sse", name: "asana", authorization_token: "Bearer xxx" } ] |
Demo do Brad: agente buscou tarefas no Asana, gerou imagem via Cloudflare MCP, enviou email via Zapier — uma única chamada API. MCPs disponíveis: Asana, Zapier, PayPal, ElevenLabs, Pulumi, Docker e vários outros.
💰 Otimização de custos
◦ Prompt caching — -90%. Agora com TTL de 1 hora (era 5 min).
◦ Batch processing — -50%. Suporta web search, code exec, MCP.
◦ Priority tier — compre capacidade mensal com 99% de reliability.
7. MCP além de ferramentas
MCP 201 (David, co-criador) + MCP at Sourcegraph (Beyang Liu, CTO)
A maior parte dos MCP servers só expõe ferramentas. Mas o protocolo tem 3 primitivos:
1. Prompts (user-driven)
Templates predefinidos que o usuário invoca ativamente. Aparecem como slash commands no cliente. Você, autor do MCP server, sabe usar melhor — então prepare prompts de exemplo com autocompletar paramétrico.
2. Resources (app-driven)
Dados brutos que o aplicativo decide como usar. Pode virar contexto direto, pode virar embedding+RAG, pode expor como file-like object. Área pouco explorada segundo David.
3. Tools (model-driven)
Ações que o modelo invoca quando decide. 99% dos MCP servers só fazem isso.
8. Claude Code SDK e automação headless
Building Headless Automation (Sedara, Anthropic)
Claude Code não precisa rodar no seu terminal interativo. Tem um SDK pra qualquer pipeline ou script.
Uso como ferramenta Unix
|
1 2 3 4 |
$ cat error.log | claude -p "resuma as falhas" $ ifconfig | claude -p "explica essa saída" $ claude -p "escreve Fibonacci em Python" --allow-tools write $ claude -p "query" --output-format json | jq '.response' |
Integra em qualquer pipeline Unix. SDKs Python e TypeScript também disponíveis.
🚀 Claude GitHub Actions (open source)
Mencione @claude em issue ou PR. Ele:
◦ Lê o código do projeto
◦ Cria PRs a partir de issues
◦ Responde perguntas técnicas no GitHub
◦ Revisa código
◦ Adiciona commits em PRs existentes
Instalação: /install-github-action no Claude Code do seu repo. Ele gera o YAML e configura.
🛠️ Casos de uso do SDK
◦ CI/CD — Claude revisa cada PR antes dos humanos
◦ Triagem de bugs — classifica issues por prioridade
◦ Chatbot customizado — assistente interno com Claude Code por trás
◦ Análise de logs — pipeline que resume erros críticos diariamente
◦ Migrações de código em escala
◦ Geração de testes para cobertura
🔒 Permission request tool (novo)
Em vez de pré-configurar --allow-tools estaticamente, você pode delegar a decisão pra um MCP server que pergunta em tempo real ao usuário.
Útil quando você não sabe antecipadamente quais ferramentas Claude vai querer usar.
9. Vibe coding responsável em produção
Vibe coding in prod (Erik Schluntz, Anthropic)
Vibe coding é quando você esquece que o código existe e confia no que a IA gerou. Parece arriscado em produção — mas Erik argumenta que vai ser impossível não fazer. A questão é como fazer com segurança.
📈 A curva exponencial
Duração das tarefas que IA consegue fazer dobra a cada 7 meses. Hoje ~1h. Ano que vem, 1 dia. Ano seguinte, 1 semana.
Não vai ter como você ler cada linha. Alternativa: aprender a delegar com confiança.
1. Esqueça o código, não o produto
Analogia do compilador: você sabe que tem assembly lá embaixo, mas não precisa ler. Confia e foca no produto. Com IA, vai ser igual.
2. Ache uma camada de abstração verificável
Esse é problema antigo:
◦ CTO gerencia especialista → testes de aceitação
◦ PM revisa feature → usa o produto
◦ CEO confere contador → spot check
3. Foque em "leaf nodes"
Partes do código que nada depende delas. Dívida técnica nelas é aceitável. A arquitetura central precisa ser entendida por humanos — tudo mais depende dela.
4. Seja o PM do Claude
"Ask not what Claude can do for you, but what you can do for Claude."
Erik gasta 15-20 minutos coletando contexto antes de pedir implementação. Numa conversa separada, Claude explora a base, identifica arquivos, construímos o plano juntos. Depois passo o plano em um novo contexto pra executar.
Case real — Anthropic
22.000 linhas escritas pelo Claude em produção
O time de RL da Anthropic mergou +22k linhas -0 feitas majoritariamente pelo Claude. O processo:
✓ Dias de trabalho humano planejando requisitos
✓ Concentrado em leaf nodes
✓ Partes importantes tiveram revisão humana pesada
✓ Stress tests desenhados pra verificar estabilidade sem ler código
✓ Inputs/outputs desenhados pra serem verificáveis por humanos
10. Casos técnicos: Shopify Roast, Sourcegraph AMP
Spotlights técnicos
🛒 Shopify Roast
Lançaram open source o Roast — framework pra workflows determinísticos + Claude Code. A sacada: combinar passos determinísticos ("sempre rodar type check") com passos não-determinísticos ("pede pro Claude consertar").
Features importantes:
◦ Salvar estado da sessão — não precisa refazer passos 1-4 só pra debugar o 5
◦ Cache de function calls — mesmo conjunto de dados não é re-processado
◦ Estilo Rails (convenção sobre configuração)
◦ Bypass de permissões em modo de prototipagem
Usado pra: migrações de código em escala, aumentar cobertura de teste, pipelines de CI/CD.
📄 Sourcegraph AMP
A Sourcegraph atende 7 das 10 maiores empresas de software do mundo. Eles reconstruíram o agente de coding (AMP) do zero em volta do MCP, em vez de plugar MCP depois.
Arquitetura: MCP como primitivo central (prompts, resources, tools) + proxy remoto que protege conexões e lida com segredos. Demo: bug fix num issue linear, usando MCP do Linear pra buscar, agentic search pra localizar código, ferramenta de edição pra corrigir.
✅ Cheat sheet pro time
Claude Code
✓ Começa com Q&A da base de código, não edições
✓ CLAUDE.md na raiz do projeto com comandos e padrões (mantém curto!)
✓ Shift+Tab = auto-accept. Escape = interrompe. # = lembra
✓ Peça plano antes do código
✓ Dê uma forma dele verificar o trabalho (teste, screenshot)
✓ Use /compact quando contexto encher
Vibe Coding
✓ 15-20 min coletando contexto antes de pedir código
✓ Foque em leaf nodes
✓ Arquitetura central precisa humano
✓ Ache camada de abstração verificável
Prompting
✓ XML tags pra delimitar seções
✓ Prefill pra controlar formato de saída
✓ Não diga "pense passo a passo", oriente o quê pensar
✓ Evite few-shot tradicional — limita demais
✓ Comece simples, itere com base nos casos que falham
Agentes
✓ Use só pra tarefa complexa, valiosa, erros recuperáveis
✓ System prompt simples — deixe o modelo ser o modelo
✓ Avalie com LLM-as-judge ou estado final (tau-bench)
✓ Revise transcrições manualmente
Ferramentas nativas
✓ Code Execution pra análise de dados
✓ Web Search com citações
✓ MCP Connector pra Asana, Zapier, etc
✓ Prompt caching 1h = -90% em prompts grandes
🔗 Vídeos originais
Playlist completa: Code with Claude — YouTube
Claude 4 · Taking Claude to the Next Level
Claude Code · Best Practices
Claude Code · Building Agents that Code (Boris)
Headless · Headless automation
Vibe Coding · Vibe coding in prod (Erik)
Prompting · Prompting 101
Agentes · Prompting for Agents
Agentes · Building Blocks for Tomorrow’s AI Agents
MCP · MCP 201
MCP · MCP at Sourcegraph
Shopify · Shopify Roast
Pokémon · Claude plays Pokemon (uso de ferramentas)
Vertex AI · Agentes no Vertex AI
Nota: o vídeo "Building AI agents with Amazon Bedrock" não estava com legendas disponíveis pra extração no YouTube e não foi incluído neste resumo.
Resumo por Fabrício Lima · fabriciolima.net · LinkedIn ↗
