Brasil passa a fazer parte da rede LHCONE

- 25/10/2015

O Brasil obteve uma posição de destaque perante a comunidade científica internacional com a entrada do Laboratório de Física Experimental de Altas Energias (Lafex), do Centro Brasileiro de Pesquisas Físicas (CBPF), e do Grupo de Íons Pesados Relativísticos (Griper), do Instituto de Física da Universidade de São Paulo (USP), para o seleto time de grids computacionais que participam da rede LHCONE, da Organização Europeia para a Pesquisa Nuclear (Cern).

Em operação desde 2011, a LHCONE é um serviço de infraestrutura de redes concebido exclusivamente para os projetos do maior acelerador de partículas do mundo, o Large Hadron Collider (LHC). Nele, ocorrem experimentos que geram uma quantidade de dados tão grande que extrapola os recursos do próprio data center do Cern, de 100 petabytes, o equivalente a 700 anos de filmes em qualidade Full HD. Por isso, o processamento desses dados é distribuído por 150 centros de computação espalhados em 40 países, que formam a maior grid computacional do mundo, a WLCG (Worldwide LHC Computing Grid).

Para garantir maior segurança e prioridade dos dados, além de melhor vazão e desempenho de rede, o LHCONE funciona como uma rede sobreposta à rede física existente, interligando vários sites de instituições que abrigam grids computacionais colaboradoras do LHC, por meio das redes acadêmicas. É o caso do Lafex, que, em julho de 2015, passou a cumprir os requisitos mínimos de rede exigidos pelo Cern para integrar a rede exclusiva.

No entanto, para que isso acontecesse, foi preciso superar alguns problemas de desempenho, uma vez que o CBPF está conectado à rede acadêmica brasileira de forma indireta, pela rede metropolitana do Rio (Rede Rio), com uma capacidade de banda que evoluiu até chegar atualmente a 10 Gb/s.

Desde 2010, a área de Pesquisa e Desenvolvimento da Rede Nacional de Ensino e Pesquisa (RNP), que opera a rede acadêmica brasileira, dedicou-se a mapear as transferências de dados realizadas pelo Lafex, a fim de encontrar possíveis falhas no caminho entre o laboratório e o backbone nacional e depois nas conexões internacionais até a Europa. “Usamos a plataforma de monitoramento perfSONAR, o que ajudou a visualizar onde os problemas estavam ocorrendo nesse trajeto”, declarou o gerente de Redes de Experimentação da RNP, Alex Moura.

Além da RNP, contribuíram para o sucesso alcançado a Rede-Rio/Faperj e equipes de grandes backbones internacionais da Cooperação Latino-Americana de Redes Avançadas (RedCLARA), da Géant e do Cern. Parte do projeto recebeu financiamento do Programa de Capacitação Institucional (PCI) do Ministério da Ciência, Tecnologia e Inovação (MCTI).

Grids computacionais na América Latina

O CBPF colabora com o Cern pelo projeto LHCb (Large Hadron Collider beauty), que investiga as diferenças entre a matéria como é conhecida e a antimatéria, ao estudar um tipo de partícula chamado B-quark. Essas partículas são arremessadas após a colisão no acelerador e capturadas por uma série de subdetectores presentes no LHC. O projeto conta com a colaboração de cerca de 700 cientistas de 66 diferentes instituições e universidades.

A grid computacional com maior capacidade de processamento de dados na América Latina é a do Griper, do Instituto de Física da USP, que chega a receber cerca de 75% de todo o processamento do LHC na região. Recentemente incorporado à rede LHCONE, o Griper participa dos projetos LHCb e Alice. Nesse último, são medidas as colisões de íons pesados, como o chumbo, para se estudar um novo estado da matéria, o chamado Plasma de Quarks e Gluons. Composto pelos elementos mais básicos da matéria, ele pode explicar temas complexos da física, como a origem do universo.

Em agosto de 2015, o Griper também foi responsável pelo upgrade de equipamentos do LHC para o processamento de dados do Alice. O chip, batizado de Sampa, e desenvolvido em parceria com a Escola Politécnica da USP, é um dos equipamentos que registrarão em imagens o momento exato dessas colisões.

A terceira grid computacional brasileira ligada ao LHC é a do Centro de Análise e Pesquisa de São Paulo (Sprace), da Universidade Estadual Paulista (Unesp). O Sprace contribui para o projeto CMS (Compact Muon Solenoid), detector que usa um grande imã para identificar o caminho das partículas produzidas pelas colisões no acelerador. Esse projeto foi essencial para a descoberta da partícula subatômica Bóson de Higgs e da composição da matéria escura, o que redirecionou os estudos atuais em Astronomia.

Outra grid computacional que processa dados do projeto CMS está localizada no Laboratório de Física de Altas Energias (HEPGrid), da Universidade do Estado do Rio de Janeiro (Uerj). Em dezembro de 2014, com o apoio da RNP, o HEPGrid participou do evento Supercomputing, onde foi quebrado um recorde mundial de transmissão de dados. O grupo chegou a uma taxa de transmissão de aproximadamente 1,4 terabits por segundo, sustentada por um período prolongado. A taxa máxima já obtida no Supercomputing era de 750 Gb/s. O êxito foi creditado ao uso da tecnologia SDN, de redes definidas por software.

De acordo com dados de fevereiro de 2014, o CMS é um dos maiores experimentos científicos internacionais da história, por envolver 4,3 mil profissionais, entre físicos de partículas, engenheiros, técnicos e estudantes de 182 instituições de pesquisa de 42 países.

O LHC

O LHC foi construído entre a França e a Suíça e conta com um túnel de 27 quilômetros de circunferência de supercondutores eletromagnéticos, onde ocorre a colisão de partículas. Ele é administrado pelo Cern, criado após o fim da Segunda Guerra Mundial. O LHC conta atualmente com quatro experimentos: o Alice, o Atlas, o LHCb e o CMS. Juntos, eles têm o envolvimento de 8 mil pesquisadores do mundo todo, inclusive de centros de pesquisa brasileiros.

A grid computacional que atende o LHC é dividida em quatro níveis ou camadas, os “Tiers”, de 0 a 3. O T0 é o datacenter do Cern, por onde passam todos os dados produzidos pelo LHC em sua forma bruta até chegarem ao nível T1. Esse último consiste em 11 centros de computação, nos Estados Unidos, Europa e China, de porte suficiente para armazenar todos os dados gerados pelo acelerador e responsáveis por reprocessá-los em larga escala e distribui-los para os de nível T2, voltados para tarefas mais específicas. O Brasil tem quatro clusters de nível T2: o Lafex, do CBPF, o Griper, da USP, o Sprace, da Unesp, e o HEPGrid, da Uerj.