Participe de nossos boletins informativos diários e semanais para obter as atualizações mais recentes e conteúdo exclusivo sobre a cobertura de IA líder do setor. Saber mais


Antrópicouma empresa líder em inteligência artificial, lançou seu novo API de lotes de mensagens na terça-feira, permitindo que as empresas processem grandes volumes de dados pela metade do custo das chamadas API padrão.

Esta nova oferta lida com até 10.000 consultas de forma assíncrona em uma janela de 24 horas, marcando um passo significativo para tornar os modelos avançados de IA mais acessíveis e econômicos para empresas que lidam com big data.

A economia de escala da IA: o processamento em lote reduz os custos

O API de lote oferece um desconto de 50% em tokens de entrada e saída em comparação com o processamento em tempo real, posicionando a Anthropic para competir de forma mais agressiva com outros provedores de IA como OpenAI, que introduziu um sistema semelhante processamento em lote destaque no início deste ano.

Esta mudança representa uma mudança significativa na estratégia de preços da indústria de IA. Ao oferecer processamento em massa com desconto, a Anthropic está efetivamente criando uma economia de escala para cálculos de IA.

Isto poderia levar a um aumento na adoção da IA ​​entre empresas de médio porte que anteriormente não tinham preços para aplicações de IA em grande escala.

As implicações deste modelo de preços vão além da mera economia de custos. Poderia alterar fundamentalmente a forma como as empresas abordam a análise de dados, conduzindo potencialmente a análises mais abrangentes e frequentes em grande escala, que anteriormente eram consideradas demasiado caras ou intensivas em recursos.

ModeloCusto de entrada (por 1 milhão de tokens)Custo de produção (por 1 milhão de tokens)Janela de contexto
GPT-4oUS$ 1,25US$ 5,00128K
Soneto de Cláudio 3.5US$ 1,50US$ 7,50200 mil
Comparação de preços: GPT-4o vs. modelos premium de Claude; Custos mostrados por milhão de tokens (crédito da tabela: VentureBeat)

Do tempo real ao momento certo: repensando as necessidades de processamento de IA

A Anthropic disponibilizou a API Batch para seus modelos Claude 3.5 Sonnet, Claude 3 Opus e Claude 3 Haiku por meio da API da empresa. O suporte para Claude no Vertex AI do Google Cloud é esperado em breve, enquanto os clientes que usam Claude por meio do Amazon Bedrock já podem acessar recursos de inferência em lote.

A introdução de capacidades de processamento em lote sinaliza uma compreensão cada vez maior das necessidades empresariais de IA. Embora o processamento em tempo real tenha sido o foco de grande parte do desenvolvimento da IA, muitos aplicativos de negócios não exigem resultados instantâneos. Ao oferecer uma opção mais lenta, porém mais econômica, a Anthropic reconhece que, para muitos casos de uso, o processamento “no momento certo” é mais importante do que o processamento em tempo real.

Esta mudança poderá levar a uma abordagem mais matizada à implementação da IA ​​nas empresas. Em vez de optar pela opção mais rápida (e muitas vezes mais cara), as empresas podem começar a equilibrar estrategicamente as suas cargas de trabalho de IA entre processamento em tempo real e em lote, otimizando tanto o custo como a velocidade.

A faca de dois gumes do processamento em lote

Apesar dos benefícios claros, a mudança para o processamento em lote levanta questões importantes sobre a direção futura do desenvolvimento da IA. Embora torne os modelos existentes mais acessíveis, existe o risco de desviar recursos e atenção do avanço das capacidades de IA em tempo real.

O compromisso entre custo e velocidade não é novo na tecnologia, mas no campo da IA ​​assume um significado adicional. À medida que as empresas se habituam aos custos mais baixos do processamento em lote, poderá haver menos pressão do mercado para melhorar a eficiência e reduzir o custo do processamento de IA em tempo real.

Além disso, a natureza assíncrona do processamento em lote poderia potencialmente limitar a inovação em aplicações que dependem de respostas imediatas de IA, como a tomada de decisões em tempo real ou assistentes de IA interativos.

Encontrar o equilíbrio certo entre o avanço das capacidades de processamento em lote e em tempo real será crucial para o desenvolvimento saudável do ecossistema de IA.

À medida que a indústria de IA continua a evoluir, a nova Batch API da Anthropic representa uma oportunidade e um desafio. Abre novas possibilidades para as empresas aproveitarem a IA em escala, aumentando potencialmente o acesso a capacidades avançadas de IA.

Ao mesmo tempo, sublinha a necessidade de uma abordagem ponderada ao desenvolvimento da IA ​​que considere não apenas a poupança imediata de custos, mas também a inovação a longo prazo e diversos casos de utilização.

O sucesso desta nova oferta provavelmente dependerá de quão bem as empresas conseguirem integrar o processamento em lote nos seus fluxos de trabalho existentes e da eficácia com que conseguirem equilibrar as compensações entre custo, velocidade e poder computacional nas suas estratégias de IA.