Em abril de 2026, 44% das empresas continuam travadas na fase de testes com Inteligência Artificial, segundo a pesquisa Trendlines da consultoria Avanade. Para tirar essas ideias do papel, a Nutanix anunciou a reformulação da sua plataforma Cloud Platform (NCP) focada em IAs agentes, enquanto a Akamai revelou na KubeCon Europe 2026 como usa seus 4.400 data centers menores para processar IA na borda da rede.
O fim da IA de vitrine
Por muito tempo, vimos chatbots que apenas respondiam perguntas. IAs agentes fazem diferente: elas planejam, executam e corrigem os próprios erros de forma contínua. Pense nelas como funcionários que conversam com o estoque, o sistema financeiro e o banco de dados via APIs, sem pedir permissão a cada passo. O problema atual é colocar isso para rodar em larga escala. A FPT Software aplicou essas IAs em produção e cortou o tempo de processamento corporativo em 90%, reduzindo falhas em 80%. O gargalo da maioria das empresas está na infraestrutura, que não consegue fazer essas peças conversarem em tempo real. A Microsoft atacou essa falta de integração ao usar agentes autônomos para gerenciar e automatizar a própria nuvem, e agora fornecedores de infraestrutura estão construindo as rodovias para esses processos transitarem mais rápido.
Nutanix e a fundação direta no hardware
A Nutanix apresentou o serviço Agentic AI, integrado à sua plataforma de nuvem. A empresa lançou o NKP Metal em acesso antecipado, uma ferramenta que permite rodar orquestradores Kubernetes direto no bare-metal. Para desbugar: bare-metal significa rodar o software direto no hardware físico, sem a pesada camada de máquina virtual no meio. Isso corta intermediários e acelera o processamento de dados pesados que a IA exige. A companhia também atualizou o Nutanix Unified Storage para a versão 5.3, voltado para gerenciar dados no formato de objetos dentro das fábricas de IA. Eles amarraram tudo isso com novas parcerias com a MongoDB e a NetApp. Na prática, isso cria canais de comunicação diretos entre o local onde o dado repousa e o motor onde a IA raciocina. Quando uma IA agente precisa tomar uma decisão logística, ela acessa o banco de dados da MongoDB através de chamadas rápidas e padronizadas. Sem essa interoperabilidade física e lógica, o agente fica paralisado aguardando informações. Esse conceito de integrar peças prontas para reduzir a fricção técnica é a mesma lógica usada pela Oracle em seu marketplace de IAs corporativas.
Akamai levando o cérebro para perto do problema
Do outro lado da equação do processamento, a Akamai atacou o problema da latência. Lena Hall e Thorsten Hans explicaram em Amsterdã como a empresa conectou 41 data centers centrais a 4.400 centros de distribuição menores e capilares. Eles chamam isso de inferência na borda. Em vez de enviar a requisição de um aplicativo no seu celular para um servidor na Califórnia e esperar a resposta voltar, a Akamai processa o modelo de IA em um servidor localizado no seu próprio bairro. Após adquirir a Fermyon em dezembro de 2025, a Akamai passou a usar o padrão WebAssembly e os frameworks Spin e SpinKube. O resultado medido nos servidores impressiona: o sistema inicia a operação a frio em menos de 1 milissegundo e coloca novas aplicações no ar em cerca de dois minutos. Para agentes autônomos que operam robôs industriais na linha de montagem ou detectam fraudes em cartões de crédito durante o milissegundo da compra, esse tempo de resposta dita o sucesso da operação.
A caixa de ferramentas
As APIs atuam como os diplomatas que permitem a essas IAs agentes negociar ações com o mundo físico. A infraestrutura oferecida por Nutanix e Akamai funciona como a infraestrutura viária que garante que essa diplomacia aconteça sem atrasos. A tarefa imediata para quem gerencia tecnologia não é comprar mais licenças de software genérico de texto. O trabalho agora é mapear quais processos internos dependem de integrações defasadas e preparar a infraestrutura local e os endpoints de segurança para receber agentes autônomos de alta velocidade. Se a sua base de dados não expõe informações via APIs rápidas e sua rede tem gargalos de latência, a sua empresa continuará entre os 44% que gastam dinheiro em provas de conceito de IA que nunca chegam aos clientes finais.