A Uber zerou o orçamento de IA em quatro meses. O que isso muda para todo mundo.
Em abril de 2026, o CTO da Uber, Praveen Neppalli Naga, admitiu publicamente que a empresa havia consumido todo o budget anual de inteligência artificial antes de chegar ao meio do ano. Quatro meses! O dinheiro previsto para doze não durou nem até a copa do mundo.
O culpado nominal foi o Claude Code, ferramenta da Anthropic para geração e refatoração autônoma de código. Mas culpar a ferramenta é como culpar o cartão de crédito pela fatura alta. O que aconteceu na Uber é um problema de modelo mental: a empresa tratou IA como uma linha de licença de software, quando na prática ela se comporta como uma linha de produção funcionando vinte e quatro horas por dia com custo proporcional ao que produz.
O modelo SaaS tradicional cobra por assento. Você tem 5.000 engenheiros, assina 5.000 licenças, o custo mensal é previsível e praticamente independe de quantas horas cada um trabalha. O Claude Code funciona por consumo de tokens, que são unidades de processamento. Cada vez que um agente varre um repositório, executa um teste, propõe uma refatoração ou compila uma sugestão, ele consome tokens e a conta sobe. Quando você tem 5.000 engenheiros usando a ferramenta ativamente, com agentes rodando tarefas em background sem supervisão humana constante, a matemática deixa de ser linear. Ela fica exponencial.
A Uber chegou ao ponto onde agentes de IA escreviam 11% de todo o código de backend em produção, incluindo lógica de pareamento de motoristas e algoritmos de precificação dinâmica. Três meses antes, esse número era inferior a 1%. O salto foi rápido demais para que qualquer ciclo orçamentário anual acompanhasse. Orçamentos são aprovados em outubro para o ano seguinte. A adoção do Claude Code disparou em dezembro e janeiro. Quando o financeiro olhou para os números, a fatura do primeiro trimestre já era maior do que o planejado para o ano inteiro.
Tem um componente comportamental nessa história que agrava tudo. A liderança da Uber criou painéis internos que ranqueavam os engenheiros pelo volume de uso de ferramentas de IA. A intenção era acelerar a adoção. O efeito foi que consumir tokens virou métrica de desempenho. Engenheiros passaram a abrir sessões maiores, delegar mais tarefas concorrentes aos agentes, deixar processos rodando mais tempo do que o necessário para o problema em questão. A analogia mais precisa aqui foi feita pela analista Cristina Cordova: avaliar equipes de engenharia pelo gasto em tokens é como avaliar equipes de marketing pelo valor gasto em mídia, ignorando qualquer resultado de conversão. A métrica mede atividade, não valor.
Esse fenômeno ganhou nome. Tokenmaxxing é a prática de maximizar o consumo de tokens de IA como se isso fosse um indicador de produtividade. Não é exclusividade da Uber. A Meta incluiu uso de ferramentas de IA nas avaliações de desempenho de funcionários. A startup Nectir estabeleceu cotas mínimas de consumo semanais, que foram de US$ 100 para “alguns milhares de dólares” por engenheiro. Em Estocolmo, um engenheiro chamado Max Linder relatou à imprensa que seus gastos mensais com Claude superavam o salário.
O PM3 Summit acontece dia 19/05 no Frei Caneca, das 9h às 18h. 2 palcos simultâneos, 12 conteúdos, mais de 15 palestrantes. O tema central é IA, mas sem a camada de hype que você já está cansado de ver: as duas trilhas olham para decisões reais, não para tecnologia em abstrato. Usa o cupom PRODUCTGURUS para 10% off e garantir o seu lugar aqui.
O resultado prático desse ambiente é que faturas de US$ 150.000 mensais por engenheiro individual deixaram de ser absurdas para serem relatadas como algo normal. Um agente de IA rodando continuamente sobre um repositório grande pode processar mais de 700 milhões de tokens em uma semana. Com o modelo de cobrança por consumo que a Anthropic migrou os clientes enterprise no início de 2026, os custos deixaram de ser uma variável discreta e passaram a flutuar em tempo real conforme o comportamento dos desenvolvedores.
A questão que ninguém estava preparado para responder é simples: qual o ponto de equilíbrio entre o custo da ferramenta e o valor que ela gera?
Um estudo do CSAIL do MIT sobre automação de tarefas de visão computacional concluiu que em apenas 23% dos casos a máquina era mais barata que o humano. Nos 77% restantes, quando contabilizados os custos de implementação, manutenção, hardware, treinamento e inferência contínua, o trabalhador humano saia mais barato. Bryan Catanzaro, VP de deep learning na Nvidia, disse abertamente que os custos de infraestrutura de processamento da sua divisão já superam a folha salarial da equipe.
Isso coloca um problema concreto para qualquer pessoa sentada numa cadeira de liderança de produto ou tecnologia. O argumento de que IA reduz custo de trabalho humano, que foi o principal justificador de orçamento nos últimos dois anos, começa a depender de condições muito específicas para ser verdade. Não é falso. Mas também não é automaticamente verdadeiro para qualquer tarefa, em qualquer escala, com qualquer modelo de cobrança.
A Uber está avaliando migrar parte da carga para o Codex da OpenAI, em parte porque analistas apontam que ele consome tokens de forma mais eficiente em certos tipos de refatoração. Isso é, em essência, escolher fornecedor de IA pelo custo por token, da mesma forma que empresas de logística escolhem combustível pelo preço por litro. É um mercado de commodities que estava disfarçado de diferencial tecnológico.
O que fica sem resposta: se os engenheiros da Uber produzem melhor código, em menos tempo, usando Claude Code, mas o custo da ferramenta ultrapassa o salário de parte da equipe, e o MIT diz que em 77% dos casos o humano ainda é mais barato, quem exatamente ficou com a produtividade dessa equação?


