Aplicações em teoria quântica têm forte impacto econômico, diz Celso Villas-Bôas (UFSCar)

Com potencial de revolucionar a ciência e a forma como vivemos de formas difíceis de prever, a computação quântica é um dos temas mais quentes e promissores da atualidade. Na palestra “A transformação da informação quântica em valor de mercado”,no segundo dia do 23º WRNP, o professor do Departamento de Física da Universidade Federal de São Carlos (UFSCar) Celso Jorge Villas-Bôas trouxe um panorama histórico do desenvolvimento da área e destacou as contribuições brasileiras no cenário. A mediação foi de José Ferreira de Rezende, assessor acadêmico e científico da RNP.

Em sua apresentação, o professor da UFSCar destacou o potencial econômico do investimento em pesquisas na área. “Hoje estima-se que mais ou menos 1/3 do PIB dos EUA está diretamente ligado à teoria quântica. Teve um impacto violento não só no conhecimento humano, na forma como a gente enxerga as coisas, mas um impacto econômico muito forte", comentou. 

Com raízes na Alemanha do final do século 19, a física quântica trouxe um novo entendimento da constituição dos átomos e da matéria, e está por trás de diversas tecnologias do cotidiano, como o raio laser na medicina e nos aparelhos eletrônicos, os chips de celulares, telefones e computadores. A invenção da lâmpada comercial, por Thomas Edison (1847-1931) e a necessidade de otimização da fabricação de canhões na Alemanha foram fundamentais para que o governo do país investisse em projetos de ciência básica, à época. 

“Por trás destes dois problemas, estava o problema da radiação de corpo negro, muito estudado por Max Planck (1858-1947). Vendo a necessidade técnica em Berlim, com o objetivo de modernizar as cidades. Esse instituto tinha uma preocupação com a ciência básica. Planck estudou esse tipo de problema sem preocupação com suas aplicações”, disse o palestrante, para quem podemos aprender com esta história. 

Com as descobertas do físico Richard Feynman (1918-1988) e do matemático Peter Shor, no final do século 20, a computação quântica atraiu a atenção de cientistas e empresas por todo o mundo, por causa das possibilidades de aplicação. “O aspecto mais crucial de todas estas tecnologias reside no fenômeno da superposição. Quando falamos de processamento de informação, no mundo clássico, ou temos o bit 0 ou o bit 1. E no mundo quântico, você pode ter o 0 e o 1 acontecendo ao mesmo tempo, carregando essa informação em paralelo. Muitos pesquisadores começaram a usar essa propriedade para produzir novas tecnologias, mais disruptivas”, explicou Villas-Bôas.

Grandes empresas do setor como Google, IBM, Amazon e Microsoft direcionam investimentos milionários para o desenvolvimento de computadores quânticos, que prometem processar dados em tempo recorde. Um computador fotônico de 76 qubits desenvolvido na China foi capaz de executar, em 200 segundos, uma tarefa que o maior supercomputador do país demoraria 600 milhões de anos.  

“A Google criou um campus só para estudar este assunto. A previsão deles é ter 1 milhão de qubits até o final da década, porque com isso eles acreditam que vai ser possível resolver problemas práticos com vantagens extraordinárias. A IBM investe muito pesadamente, e acabou de entregar um chip com 127 qubits”, ressaltou o palestrante.

O Brasil já desenvolve pesquisas na área em centros como o Instituto de Física da Universidade Federal do Rio de Janeiro (UFRJ), o Grupo de Tecnologias Quânticas Sisdia, do Exército Brasileiro; o Grupo QuIntec, da Unicamp; e a Rede MCTI SofTex de Tecnologias Quânticas Computacionais.

O Ntropic, grupo do Centro de Pesquisas Avançadas Wernher Von Braun, que Villas-Bôas integra, conta com uma equipe de cientistas, engenheiros e profissionais de negócios para gerar aplicações em mecânica quântica a partir de tecnologias que estão sendo estudadas mundo afora. “Trabalhamos com aplicações em computação quântica, como soluções para problemas de roteamento de veículos e de alocação de objetos em armazéns. Também atuamos em comunicação, para testar sistemas de comunicação seguros em fibras óticas,   e em sensores”, contou.

Novas gerações de redes móveis nas redes acadêmicas e movimentação de dados com alto desempenho

“Faz sentido a RNP ter uma operação de redes móveis e 5G?” 

Com esse questionamento, o diretor de engenharia e operações da RNP, Eduardo Grizendi abriu a sessão “Oportunidades das novas gerações das redes móveis nas redes acadêmicas”, da qual foi moderador. A mesa contou com a participação de Kleber Cardoso, professor do Instituto de Informática da Universidade Federal de Goiânia (UFG); Cristiano Both, professor da Universidade do Vale do Rio dos Sinos (UNISINOS); e Raul Aguirre, da Wayra Consultoria. 

Oportunidades das novas gerações das redes móveis

Para ajudar a responder à pergunta, Grizendi relembrou o objetivo estratégico da RNP, de “prover uma ciberinfraestrutura segura, de alto desempenho e disponibilidade, e, ao mesmo tempo, ubíqua, onipresente, em qualquer lugar e à qualquer hora”. Cardoso destacou que, em sua opinião, a instituição deve investir nessas tecnologias. “Quando olhamos para o termo em ‘qualquer lugar’, escrito na missão da RNP, a gente assente que fibra óptica, wifi e  outras tecnologias tradicionalmente usadas pela RNP não são suficientes. Eventualmente é preciso assistir usuários que não têm acesso à internet, e a rede móvel aparece como uma necessidade neste contexto”, explicou.

A sessão “Ambiente de Movimentação de Dados com Alto Desempenho para ICTs” apresentou o projeto da RNP com a Petrobras, que pretende facilitar a troca de dados entre pesquisadores do CENPES e do LNCC (Laboratório Nacional de Computação Científica) e construir um ambiente de movimentação de dados com alto desempenho e segurança. 

Diretor-adjunto para e-Ciência e ciberinfraestrutura avançada na diretoria de Pesquisa, Desenvolvimento & Inovação (DPDI) da RNP, Leandro Ciuffo, moderou o painel que contou com a participação de Fabio Souza (CENPES); Luis Rodrigo (LNCC); e Jeferson Souza (RNP). Ciuffo fez uma breve apresentação sobre o projeto e conduziu a conversa que abordou os desafios e os gargalos na movimentação dos dados.