A Inteligência Artificial está se tornando uma ferramenta cada vez mais essencial em diversas indústrias, mas sua eficácia depende diretamente da capacidade de escalá-la de maneira eficiente. Data centers de IA são projetados para escalonamento rápido, permitindo que as organizações implantem rapidamente mais poder computacional à medida que as cargas de trabalho de IA crescem.
Já vimos aqui que um data center de IA é, em sua essência, um data center otimizado. Ele deve suportar ambientes de alta densidade, trabalhar com métodos alternativos de resfriamento, trabalhar com uma rede rápida e fornecimento de energia sustentável e ser projetadocom o objetivo de lidar com os desafios únicos das cargas de trabalho de IA: grandes volumes de dados, tarefas de computação pesadas e a necessidade de treinamento e inferência rápidos de modelos de aprendizado de máquina. O que os força a estarem sempre prontos para evoluir em escala e eficiência.
“Ao escolher um data center de IA, é essencial considerar onde seus dados são armazenados e processados. Uma infraestrutura que possa crescer de acordo com suas necessidades é igualmente importante”, comenta Rodrigo Radaieski, COO da Ascenty. “Data centers de IA, como os nossos, devem oferecer uma infraestrutura robusta, sempre bem conectada e pronta para escalar, garantindo máxima resiliência e disponibilidade para seus dados.
Escalar significa responder a algumas questões fundamentais sobre prontidão da infraestrutura, otimização de desempenho, eficiência energética e conformidade regulatória.
A Ascenty oferece soluções de infraestrutura modular que permitem expansão escalável e flexível da capacidade do data center, como exemplificado pela parceria com a WideLabs, startup brasileira especializada em IA aplicada, desenvolvedora do LLM Amazônia IA.
Data centers prontos para escalar combinam GPUs e TPUs para computação, redes de alta velocidade, sistemas de refrigeração de ponta e soluções avançadas de armazenamento.
Com o “boom” da IA, nos deparamos com uma realidade incontestável: não dá para evoluir sem os dados. E o motivo é bem simples: eles são a fonte para a tecnologia funcionar e avançar. Uma infraestrutura de dados robusta e escalável é o alicerce para lidar com grandes volumes de dados. Afinal, do treinamento de modelos complexos à execução de soluções de IA em tempo real, existe isso.
“Se você inicia um projeto de IA sem uma infraestrutura de dados adequada, corre o risco de fracassar e ter gastos bem acima do esperado. E como estamos falando de um investimento financeiro considerável, é indispensável estar pronto para esse passo”, explica Radaieski.
Há alguns anos, a Ascenty vem investindo na modernização e ampliação dos Data Centers, garantindo não só espaço de armazenamento, mas a máxima conectividade.
Um desafio crucial é como atender aos diferentes requisitos do data center para cargas de trabalho de treinamento e inferência de IA. Embora ambos os processos distribuam tarefas entre várias GPUs, eles operam em escalas drasticamente diferentes. Em resumo, o treinamento de IA requer significativamente mais GPUs trabalhando em paralelo em comparação com a inferência, que normalmente envolve muito menos GPUs.
Outra distinção crucial é que a inferência frequentemente atende a solicitações de clientes em tempo real, tornando o tempo de atividade e a transferência eficiente de dados para dentro e para fora do data center fatores críticos.
Em contraste, o treinamento consome mais recursos, mas não possui os mesmos requisitos de disponibilidade em tempo real. Como resultado, data centers projetados para inferência precisam priorizar redes de baixa latência e alta disponibilidade, enquanto aqueles otimizados para treinamento se concentram em potência computacional bruta e eficiência energética.
Apesar das demandas de recursos significativamente menores para inferência em comparação ao treinamento, estimativas do setor preveem que, com a disparada da adoção da IA, a maior parte do consumo de hardware e energia virá da inferência, e não do treinamento. Essa mudança ressalta a crescente importância da otimização da infraestrutura para cargas de trabalho de inferência de IA escaláveis e eficientes nos próximos anos.
Projetos de data centers legados enfrentam dificuldades de escala horizontal para acomodar a natureza paralela das computações de IA. Essa falta de flexibilidade dificulta a integração perfeita de novos hardwares e tecnologias de IA limitando o potencial de crescimento futuro.
Racks de servidores tradicionais são frequentemente projetados para computação de uso geral, dificultando a implantação em escala de aceleradores de IA especializados, como GPUs e TPUs.
Cargas de trabalho de IA também impactam profundamente os projetos de redes de data centers, especialmente quando se considera os padrões de tráfego. Antes do surgimento da IA, o tráfego tradicional do data center seguia principalmente um padrão norte-sul. Com a IA, especialmente em modelos de aprendizado profundo, o tráfego leste-oeste agora domina, especialmente durante a fase de treinamento. No entanto, as cargas de trabalho de inferência podem variar em suas demandas de tráfego dependendo de quantas GPUs são usadas para hospedar um LLM.
Em tempo:
A Ascenty tem uma infraestrutura composta por 5 mil km de rede de fibra óptica que atende o tráfego Norte-Sul. “As nossas infraestruturas conectam os nossos data centers e os data centers dos nossos concorrentes. Então, temos pontos de presença em todos os data centers do mercado. E as nossas redes também chegam aos cabos submarinos”, disse o COO. “Garantimos alta conectividade entre os ambientes de servidores físicos, independentemente de onde estejam, com qualquer outro ambiente que precise ser interconectado”.
À medida que a adoção da IA acelera, a demanda por soluções de rede avançadas continuará a crescer. Com um design de rede modular, os data centers de IA suportam expansão flexível de servidores GPU, switches e nós de armazenamento. A infraestrutura desacoplada permite o dimensionamento independente de recursos, enquanto o suporte multilocatário garante desempenho estável para múltiplas tarefas de IA simultâneas.
Na segunda parte deste artigo exploraremos outros dois desafios: confiabilidade e resfriamento.
Energia verde impulsiona boom no país. São R$ 60 bilhões em investimentos esperados até 2030
Por que ter a infraestrutura de dados localizada estrategicamente no território brasileiro é fundamental para alcançar a soberania digital.
Para reduzir sua pegada ambiental data centers estão migrando para o consumo zero de água, reciclando e-lixo e implementando sistemas de resfriamento otimizados por IA
Data centers estão enfrentando uma transformação de US$ 6,7 trilhões até 2030 para lidar com IA. Seu parceiro de infraestrutura não é mais apenas um fornecedor. É sua vantagem competitiva.
Os profissionais mais valiosos combinam habilidades tradicionais com recursos de IA — não apenas para manutenção, mas para decisões estratégicas.
Com a IA impulsionando 70% das oportunidades de receita e racks precisando de até 60 kW de energia, o resfriamento a ar deixou de ser uma boa opção.
PUE, WUE, CUE não são apenas sopa de letrinhas, são a diferença entre greenwashing e sustentabilidade real em operadoras como a Ascenty.
Cada solicitação de IA tem um custo ambiental que ignoramos. O desafio da sustentabilidade é real e os data centers são importantes aliados na sua superação
Para reduzir sua pegada ambiental data centers estão migrando para o consumo zero de água, reciclando e-lixo e implementando sistemas de resfriamento otimizados por IA
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso