Close Menu
Portal FNTPortal FNT

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    Lumu anuncia inovações em suas soluções Autopilot e Defender

    24 de abril de 2026

    Brasil perde R$ 26 bi por ano com corrupção na saúde

    24 de abril de 2026

    IA no atendimento avança, mas integração desafia as empresas

    24 de abril de 2026
    Facebook X (Twitter) Instagram YouTube WhatsApp
    FNT no Fato
    • Lumu anuncia inovações em suas soluções Autopilot e Defender
    • Brasil perde R$ 26 bi por ano com corrupção na saúde
    • IA no atendimento avança, mas integração desafia as empresas
    • Alta inadimplência faz empresas visarem automatizar cobrança
    • Fazendo o Deslocamento para o Escritório Valer a Pena: Lições da Elite dos melhores Locais de Trabalho
    • IA impulsiona tomada de decisões no marketing
    • Conectel expande projeto “Conexão do Bem” para São Paulo
    • LinkeMe conecta varejistas a marcas emergentes de consumo
    • Programa de aceleração impulsiona marcas de consumo
    • Varejo cresce em datas sazonais, mas falha no atendimento
    Portal FNTPortal FNT
    • Home
    • Cairo Still
    • Sem Travas
    • Local
    • Familia Verzola
    • HUMANARTE
    • Mulher Q Empreende
    • Fato Esportivo
    • Porça News
    • Agora Franca
    • Intelecto Saber
    • +Colunas
      • Sociedade Organizada
      • Rádio FNT
      • Região
      • Viva Saudável
      • Edgar Ajax
      • Vitamina Podcast
      • Cultura
      • Brasil
      • Cultura
      • Tecnologia
      • Natureza Online
      • Still Audiovisuais
      • Uma Palavra de Fé
      • NOTÍCIAS CORPORATIVAS
    Portal FNTPortal FNT
    Início » Akamai anuncia solução de orquestração de IA no edge
    Notícias Corporativas

    Akamai anuncia solução de orquestração de IA no edge

    DINOBy DINO25 de março de 2026
    Akamai anuncia solução de orquestração de IA no edge
    Akamai anuncia solução de orquestração de IA no edge

    A Akamai Technologies (NASDAQ: AKAM), empresa de cibersegurança e computação em nuvem, anunciou a primeira implementação em escala global do design de referência NVIDIA® AI Grid. Ao integrar a infraestrutura de inteligência artificial da NVIDIA à sua própria rede e utilizar orquestração inteligente de workloads em sua rede, a Akamai pretende levar o setor para além das "fábricas de IA" isoladas, em direção a uma grade unificada e distribuída para inferência de IA.

    O anúncio marca uma nova etapa no desenvolvimento do Akamai Inference Cloud, apresentado no final do ano passado. Segundo a Akamai, a companhia é a primeira a operacionalizar o AI Grid e está implantando milhares de GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition, oferecendo uma plataforma que permite às empresas executar IA agêntica e física com a capacidade de resposta da computação local e a escala da web global.

    "Fábricas de IA foram projetadas para treinamento e cargas de trabalho de modelos de fronteira — e a infraestrutura centralizada continuará oferecendo a melhor economia de tokens para esses casos de uso", afirma Adam Karon, Chief Operating Officer e General Manager do Cloud Technology Group da Akamai.

    "Mas, vídeo em tempo real, IA física e experiências altamente personalizadas e simultâneas exigem inferência no ponto de contato, não uma viagem de ida e volta a um cluster centralizado. Nossa orquestração inteligente do AI Grid oferece às fábricas de IA uma maneira de escalar a inferência para fora — aproveitando a mesma arquitetura distribuída que revolucionou a entrega de conteúdo para rotear workloads de IA em 4.400 localidades, com o custo certo e no momento certo", acrescenta.

    A arquitetura da "tokenomics"

    No centro do AI Grid está um orquestrador inteligente que atua como intermediário em tempo real para requisições. Ao aplicar a expertise da Akamai em otimização de desempenho de aplicações, esse plano de controle orientado por cargas de trabalho aprimora a "tokenomics", melhorando significativamente métricas como custo por token, tempo até a geração do primeiro token e throughput.

    Segundo a empresa, a Akamai permite que clientes acessem modelos ajustados ou espelhados por meio de sua infraestrutura global de edge, o que pode impactar aspectos como custo e desempenho em cargas de trabalho de IA.

    • Eficiência de custo em escala: as empresas podem reduzir drasticamente os custos de inferência ao combinar automaticamente workloads com o nível de computação mais adequado. Segundo a Akamai, o orquestrador utiliza técnicas como cache semântico e roteamento para direcionar requisições a recursos dimensionados conforme a demanda, priorizando o uso de GPUs para cargas de trabalho mais exigentes. A empresa afirma que essa estrutura é suportada pela Akamai Cloud, baseada em infraestrutura open source e voltada ao processamento de operações de IA intensivas em dados;
    • Resposta em tempo real: de acordo com a empresa, diferentes setores podem aplicar esses recursos em casos como interações com personagens em jogos, detecção de fraude e personalização em serviços financeiros, além de processamento e adaptação de conteúdo em empresas de mídia. A companhia informa que essas aplicações são suportadas por sua rede global de edge, com mais de 4.400 localizações, que inclui recursos como cache integrado, computação serverless e conectividade distribuída, permitindo o processamento de requisições próximo ao usuário;
    • IA pronta para produção no núcleo: modelos de linguagem de grande porte, pós-treinamento contínuo e cargas de trabalho multimodais de inferência exigem computação densa e sustentada, algo que apenas infraestrutura dedicada consegue fornecer. A Akamai também informa que utiliza clusters com milhares de GPUs, incluindo NVIDIA RTX PRO 6000 Blackwell Server Edition, para suportar cargas de trabalho de maior escala, em conjunto com sua infraestrutura distribuída de edge.

    A continuidade da computação: do centro à edge

    Construída sobre a NVIDIA AI Enterprise e utilizando a arquitetura NVIDIA Blackwell e DPUs NVIDIA BlueField para redes e segurança aceleradas por hardware, a Akamai consegue gerenciar SLAs complexos entre a rede edge e o centro:

    • Edge (mais de 4.400 localizações): a empresa informa que a estrutura é voltada à redução do tempo de resposta em aplicações de IA física e agentes autônomos. Inclui recursos como cache semântico e serviços serverless, como Akamai Functions (computação baseada em WebAssembly) e EdgeWorkers, utilizados na execução e distribuição de modelos no ponto de contato com o usuário;
    • Akamai Cloud IaaS e clusters dedicados de GPU: a infraestrutura de cloud pública no centro permite portabilidade e economia para cargas de trabalho em escala massiva, enquanto pods com GPUs NVIDIA RTX PRO 6000 Blackwell suportam pós-treinamento pesado e inferência multimodal.

    "Novas aplicações nativas de IA exigem latência previsível e maior eficiência de custo em escala planetária", afirma Chris Penrose, Global VP de Business Development – Telco da NVIDIA. "Ao operacionalizar o NVIDIA AI Grid, a Akamai está construindo o tecido de conexão para IA generativa, agentiva e física, levando a inteligência diretamente até os dados e desbloqueando a próxima onda de aplicações em tempo real", complementa.

    Impulsionando a próxima onda de IA em tempo real

    A Akamai já observa forte adoção inicial do Akamai Inference Cloud em setores que exigem alta capacidade de computação e baixa latência:

    • Games: estúdios implantam inferência abaixo de 50 milissegundos para NPCs movidos por IA e interações em tempo real;
    • Serviços financeiros: bancos usam a grade para marketing hiperpersonalizado e recomendações rápidas nos momentos críticos de login do cliente;
    • Mídia e vídeo: empresas de transmissão utilizam a rede distribuída para transcodificação e dublagem em tempo real com IA;
    • Varejo e comércio: varejistas adotam a rede para aplicações de IA em loja e ferramentas de produtividade no ponto de venda.

    Impulsionada pela demanda empresarial, a plataforma também foi validada por grandes provedores de tecnologia, incluindo um contrato de US$ 200 milhões por quatro anos para um cluster de milhares de GPUs, sem a necessidade de um data center dedicado para infraestrutura de IA empresarial próximo aos centros urbanos.

    Escalando fábricas de IA: do centralizado ao distribuído

    A primeira onda de infraestrutura de IA foi definida por grandes clusters de GPUs em poucas localizações centralizadas, otimizados para treinamento. À medida que a inferência se torna uma carga de trabalho mais relevante e empresas de diferentes setores passam a desenvolver agentes de IA, modelos centralizados podem apresentar desafios relacionados à escala, conforme a empresa, de forma semelhante ao observado anteriormente em áreas como entrega de mídia, jogos online, transações financeiras e aplicações baseadas em múltiplos serviços.

    Para lidar com esses desafios, a Akamai utiliza uma arquitetura de rede distribuída, com orquestração e sistemas projetados para operar próximos ao ponto de interação digital.

    De acordo com a empresa, o resultado tem sido melhores experiências de usuário e maior ROI para empresas que adotaram esse modelo. O Akamai Inference Cloud aplica essa arquitetura comprovada às fábricas de IA, permitindo a próxima fase de escala e crescimento ao distribuir computação densa do núcleo até a edge.

    Para as empresas, isso significa a capacidade de implantar agentes de IA contextuais e adaptativos. Para a indústria, representa um modelo de como as fábricas de IA podem evoluir de instalações isoladas para uma infraestrutura global distribuída de utilidade pública.

    Disponibilidade

    O Akamai Inference Cloud já está disponível para clientes empresariais qualificados. Organizações podem saber mais e solicitar acesso aqui. Representantes da Akamai estavam disponíveis para demonstrações e reuniões durante a NVIDIA GTC 2026, no San Jose Convention Center, estande 621, entre 16 e 19 de março de 2026.

    NEGÓCIOS tecnologia

    Related Posts

    Lumu anuncia inovações em suas soluções Autopilot e Defender

    24 de abril de 2026

    Brasil perde R$ 26 bi por ano com corrupção na saúde

    24 de abril de 2026

    IA no atendimento avança, mas integração desafia as empresas

    24 de abril de 2026
    -Clique e ouça
    Posts Recentes
    • Lumu anuncia inovações em suas soluções Autopilot e Defender
    • Brasil perde R$ 26 bi por ano com corrupção na saúde
    • IA no atendimento avança, mas integração desafia as empresas
    • Alta inadimplência faz empresas visarem automatizar cobrança
    • Fazendo o Deslocamento para o Escritório Valer a Pena: Lições da Elite dos melhores Locais de Trabalho
    Sobre nós

    Sua fonte para as notícias de qualidade, sem tendências políticas e ideológicas, a verdade sem manipulação. “Jornalismo Raiz”.

    Aceitamos sugestões de pauta.

    Envie-nos um e-mail: jornalismo@fatonoato.com.br

    Facebook Instagram YouTube
    Fato no Insta e Face
    • Instagram
    • Facebook
    Veja Também
    Entretenimento

    João Bosco & Vinícius comandam última noite do Restinga Rodeo Music nesta segunda

    By Cairo Still

    A noite também conta com a grande final das montarias em touros; os portões serão…

    Matheus & Kauan arrastam multidão na abertura do Restinga Rodeo Music 2026

    18 de abril de 2026

    Ponto de Cultura Três Colinas sedia Celebração da Tradição

    15 de abril de 2026

    Restinga Rodeo Music começa nesta sexta com show de Matheus & Kauan

    15 de abril de 2026
    Arquivos
    • abril 2026
    • março 2026
    • fevereiro 2026
    • janeiro 2026
    • dezembro 2025
    • novembro 2025
    • outubro 2025
    • setembro 2025
    • agosto 2025
    • julho 2025
    • junho 2025
    • maio 2025
    • abril 2025
    • março 2025
    • fevereiro 2025
    • janeiro 2025
    • dezembro 2024
    • novembro 2024
    • outubro 2024
    • setembro 2024
    • agosto 2024
    • julho 2024
    • junho 2024
    • maio 2024
    • abril 2024
    • março 2024
    • fevereiro 2024
    • janeiro 2024
    • dezembro 2023
    • novembro 2023
    • outubro 2023
    • setembro 2023
    • agosto 2023
    • julho 2023
    • junho 2023
    • maio 2023
    • abril 2023
    • março 2023
    • fevereiro 2023
    • janeiro 2023
    • dezembro 2022
    • novembro 2022
    • outubro 2022
    • setembro 2022
    • agosto 2022
    • julho 2022
    • junho 2022
    • maio 2022
    • abril 2022
    • março 2022
    • fevereiro 2022
    • janeiro 2022
    © 2026 ThemeSphere. Designed by Grupo Rádio Empresa Brasil.

    Type above and press Enter to search. Press Esc to cancel.