Saltar para o conteúdo

China bate recorde mundial em computação com um “cérebro global” de 2.000 km, a maior rede distribuída do planeta.

Homem trabalha com cabos de rede coloridos, computador e ecrã mostrando mapa e rotas iluminadas.

Behind dessa imagem poética esconde-se um feito duro de engenharia: um tecido computacional com 2.000 quilómetros de largura, ligando dezenas de cidades através da sua própria “autoestrada” ótica privada, construído para treinar inteligência artificial, orientar hospitais e fábricas e afrouxar o controlo dos gigantes norte-americanos da cloud.

Uma máquina de 2.000 km que pensa como uma só

A nova Future Network Test Facility (FNTF) da China estende-se por mais de 2.000 quilómetros e liga 40 cidades, de Pequim e Nanquim a Chengdu e Urumqi. Não se comporta como uma malha solta de centros de dados. Comporta-se como se fosse um único supercomputador gigante.

Os locais são sincronizados através de uma espinha dorsal ótica dedicada com mais de 55.000 quilómetros de fibra. Esta distância é suficiente para dar a volta à Terra cerca de uma vez e meia. Crucialmente, esta espinha dorsal não é a internet pública. É uma rede fechada e controlada, com as suas próprias regras de tráfego.

A FNTF forma um “cérebro único” estendido por 40 cidades, ligado por 55.000 km de rotas óticas privadas e afinado para atuar como uma só máquina.

Os trabalhos nesta infraestrutura começaram discretamente em 2013, integrados na estratégia tecnológica de longo prazo de Pequim. Só em dezembro de 2025 as autoridades chinesas confirmaram que tinha atingido o estatuto operacional completo e que o país opera agora o que afirma ser a rede de computação distribuída mais extensa do planeta.

Como um “cérebro global” reescreve o treino de IA

O objetivo principal é claro: fazer com que modelos de IA gigantes aprendam mais depressa e de forma mais previsível. Treinar um grande modelo de linguagem ou uma IA médica à escala nacional pode exigir centenas de milhares de milhões de parâmetros e muitos meses de trabalho. Cada segundo desperdiçado num ciclo de treino traduz-se em dinheiro real e energia real.

Engenheiros chineses afirmam que, numa rede de longa distância convencional, cada passo de aprendizagem pode sofrer cerca de 20 segundos de atraso adicional face à FNTF. À primeira vista, esse número parece trivial. Mas estenda-se isso por 500.000 iterações de treino e esses 20 segundos somam quase quatro meses de computação contínua.

Ao eliminar essa penalização, a rede funciona como um multiplicador de força para os esforços de IA do país. Modelos que antes demorariam a maior parte de um ano a treinar poderiam ser recalibrados várias vezes no mesmo período, alimentando um ciclo rápido de experimentação.

A rede pode executar até 4.096 experiências em simultâneo e suportar 128 redes virtuais separadas, com controlo rigoroso de temporização e largura de banda.

Dados determinísticos: as ordens chegam à hora certa

Um conceito-chave por detrás da FNTF é a “transmissão determinística”. Na prática, isto significa que os pacotes de dados viajam segundo regras mais próximas de um horário ferroviário do que de uma estrada urbana congestionada.

Na internet pública, o tráfego disputa espaço. Os atrasos variam e os pacotes nem sempre chegam na mesma ordem ou a horas previsíveis. Os sistemas de IA toleram algum desse caos, mas o treino sincronizado à grande escala funciona muito melhor quando a temporização é precisa.

O líder do projeto, Liu Yunjie, membro da Academia Chinesa de Engenharia, descreve a abordagem como uma “via rápida para dados” com regras fixas de circulação. A cada pacote é atribuído um percurso e um horário previsíveis. Para engenheiros de aprendizagem automática, isso significa menos pausas, menos retransmissões e uma coordenação mais limpa entre milhares de GPUs e chips especializados espalhados pelo país.

Usos concretos para além de modelos de IA

O governo chinês não está a apresentar a FNTF apenas como um monstro de treino de IA. As autoridades destacam três áreas imediatas:

  • Treino rápido de modelos nacionais de IA para linguagem, visão e indústria
  • Diagnóstico médico remoto em tempo real e apoio a cirurgias
  • Automação industrial entre locais para fábricas e centros logísticos

Na saúde, uma rede estável e de baixa latência permite que uma equipa de especialistas em Xangai guie ferramentas robóticas num hospital mais pequeno a milhares de quilómetros de distância. Na indústria, um fabricante pode coordenar robôs em várias unidades como se estivessem sob o mesmo teto, com sistemas centrais de IA a ajustar tarefas em tempo real.

“Dados a Leste, Computação a Oeste”: a estratégia por detrás dos cabos

A FNTF é uma camada num projeto nacional mais amplo conhecido na China como “Dados a Leste, Computação a Oeste”. A ideia é simples: o interior ocidental tem terreno e energia, enquanto a costa oriental tem populações densas, empresas tecnológicas e laboratórios de investigação. Em vez de concentrar centros de dados massivos em cidades sobrelotadas, Pequim quer dispersar o hardware por regiões ricas em energia e ligá-las através de redes ultrarrápidas.

Esta abordagem resolve vários problemas ao mesmo tempo. Alivia a pressão sobre as redes elétricas urbanas, aproveita terrenos mais baratos e cria uma forma de encaminhar tarefas para locais onde há energia renovável disponível.

A FNTF atua como maestro de uma orquestra nacional de centros de dados: o trabalho é disperso, mas o compasso mantém-se apertado.

Estratégicamente, a plataforma também apoia um objetivo político antigo: reduzir a dependência de fornecedores de cloud dominados pelos EUA, como a Amazon Web Services, a Microsoft Azure e a Google Cloud. Uma espinha dorsal nacional robusta oferece às empresas chinesas e a organismos do Estado uma alternativa doméstica, com supervisão estatal mais direta sobre os fluxos de dados.

Promessas, pressões e questões em aberto

Os engenheiros por detrás do projeto afirmam que a FNTF consegue fornecer 98% da eficiência de um único centro de dados centralizado, apesar da enorme dispersão geográfica. Se esse valor se confirmar, será um argumento forte a favor da supercomputação distribuída.

O verdadeiro teste será saber se essa eficiência se mantém 24 horas por dia, perante perturbações meteorológicas, flutuações regionais da rede elétrica e ameaças cibernéticas em evolução. Operar algo desta dimensão envolve várias restrições apertadas:

  • Manter um desempenho de rede extremamente estável ao longo de milhares de quilómetros
  • Orquestrar o consumo de energia para que nenhuma região fique sobrecarregada
  • Reforçar cada local e cada ligação contra hacking e sabotagem física

A procura de eletricidade é outro tema por resolver. Os chips de IA de topo já são notórios pelo apetite energético. Multiplique-se isso por dezenas de locais interligados e o consumo total pode ser enorme, a menos que seja cuidadosamente compensado com arrefecimento eficiente e uma transição para fontes de baixo carbono.

Uma corrida global para construir “supercérebros” distribuídos

A China está longe de ser a única a tentar coser poder de computação remoto de modo a funcionar como um único sistema gigante. Empresas tecnológicas e governos nos EUA, Europa, Japão e Índia estão a testar as suas próprias versões.

País / região Nome do projeto Objetivo principal Características técnicas Estado em 2025
China Future Network Test Facility (FNTF) IA, telemedicina, indústria conectada Rede ótica de 55.000 km, 40 cidades, alegados 98% de eficiência Ativada (dez 2025)
Estados Unidos Federated Cloud AI Network (Microsoft / Google / AWS) IA generativa e aprendizagem federada Ligações entre centros de dados com latência <10 ms entre estados Testes-piloto
União Europeia GAIA‑X Soberania de dados e cloud europeia Interoperabilidade multi-cloud segura, normas abertas Implementação em França e Alemanha
Japão Fugaku Distributed Extension Investigação científica e indústria Expansão ótica do supercomputador Fugaku via RIKEN/Fujitsu Em desenvolvimento
Índia PARAM Shakti Distributed Grid IA para clima, saúde, defesa Clusters nacionais ligados por uma espinha dorsal de 200 Gb/s Operacional desde 2024

Estas iniciativas apontam para uma conclusão comum: o poder de computação bruto já não passa apenas por construir uma máquina gigante. Passa por ligar muitas máquinas com tal precisão que se comportem como um todo unificado.

Termos técnicos-chave que os leitores continuam a ouvir

O que “supercomputação distribuída” significa realmente

Supercomputação distribuída descreve uma arquitetura em que muitos sistemas pequenos ou de média dimensão trabalham em conjunto como se formassem um único supercomputador. O software coordena como as tarefas são divididas em partes e enviadas para diferentes locais, reunindo depois os resultados.

Esta abordagem contrasta com os supercomputadores tradicionais, que concentram centenas de milhares de processadores num só edifício. O caminho distribuído traz várias vantagens: resiliência a falhas locais, melhor alcance geográfico e flexibilidade para alinhar cargas de trabalho com a energia disponível.

Redes determinísticas vs redes de “melhor esforço”

A maior parte do tráfego de internet do consumidor funciona em redes de “melhor esforço”. Os operadores fazem circular os dados o mais depressa possível, mas sem garantias fortes. Os vídeos podem congelar por instantes, as chamadas podem falhar e os pacotes seguem percursos ligeiramente diferentes a cada vez.

A rede determinística inverte essa lógica. Percursos, temporização e largura de banda são planeados de forma rigorosa para que os pacotes cheguem ao destino em intervalos específicos, com variação mínima. Conseguir isto à escala nacional exige hardware de encaminhamento personalizado, sistemas de temporização finamente afinados e controlo apertado sobre cada segmento da rede.

Cenários: da investigação em fusão às redes inteligentes

Para além do treino de IA e da telemedicina, um “cérebro global” à escala continental abre portas em áreas que dependem de simulações pesadas. Cientistas do clima poderiam correr modelos meteorológicos ultrafinos, atualizando previsões várias vezes por dia com maior resolução. Investigadores de fusão poderiam acompanhar o comportamento do plasma através de milhões de parâmetros quase em tempo real.

As redes de energia também têm a ganhar. Um supercomputador distribuído com ligações determinísticas poderia funcionar como torre de controlo para milhares de parques eólicos, centrais solares e baterias. Algoritmos ajustariam produção e armazenamento segundo a segundo, mantendo as redes estáveis mesmo quando as renováveis flutuam.

Existem riscos em paralelo. Concentrar tanto poder de coordenação num único tecido, controlado por um pequeno grupo de instituições, cria alvos tentadores para espionagem e ciberataques. Também levanta questões sobre quem define as regras de acesso e de conteúdos, sobretudo quando a mesma infraestrutura suporta vigilância, saúde e planeamento industrial.

Para os utilizadores comuns, os efeitos chegarão sobretudo de forma indireta: ferramentas de tradução mais inteligentes, serviços online mais responsivos e sistemas de IA que parecem inexplicavelmente mais suaves. Por detrás dessas respostas rápidas poderá estar uma máquina de 2.000 km a calcular silenciosamente, a mover dados em carris que quase nunca falham o compasso.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário