No princípio era o verbo, e o verbo se fez código

Entre desafios e oportunidades, o Paraná tenta superar os gargalos existentes no país para buscar protagonismo na era da IA

Publicado sábado, 05 de julho de 2025 | Autor: Celso Felizardo e Lúcio Flávio Moura às 06:30 h

Desde a noite de 11 de maio de 1997, em Nova York, quando o supercomputador da IBM Deep Blue venceu pela primeira vez um humano em uma partida de xadrez, no caso o mestre russo Garry Kasparov, a humanidade percebeu que as máquinas poderiam fazer coisas grandiosas.

Quase três décadas depois, a inteligência artificial escreve textos, analisa exames, pilota carros e decide investimentos. Sensores, robôs e algoritmos avançam rapidamente, em escala global e transversal. É a transformação científica que vai reinventar o modo de vida, com incalculáveis possibilidades de ócios e produtividades.

Entre o fascinante e o temerário, este futuro é tão grande que uma supercomputação vai florescer e ditar novas densidades. Com tanta velocidade de cálculo por segundo, o futuro imaginado para daqui alguns séculos vem se antecipando na força de processamento de dados das máquinas atuais mais potentes, que já rompem os exaflops, ou 1 quintilhão de cálculos por segundo.

A computação quântica promete romper os limites do processamento digital. “A ficção científica de Júlio Verne nós já superamos. Agora fica até difícil imaginar o que vem por aí com a computação quântica. É um outro mundo”, avalia o pesquisador sênior da Fundação Araucária, Jorge Edison Ribeiro.

A seguir, a FOLHA traz o cenário atual da Inteligência Artificial, com oportunidades e gargalos para o Brasil, e aponta também os planos do Paraná para obter protagonismo nesta nova revolução digital.

ABISMO DIGITAL

Em recente reportagem do prestigiado jornal norte-americano New York Times, o fenômeno da inteligência artificial é tratado como um novo medidor para potencial de prosperidade e soberania econômica, com um poder singular para produzir desigualdade, o chamado abismo digital, que está dividindo o mundo entre as nações com poder de criar sistemas de IA de ponta e as demais.

De acordo com o texto, a divisão está influenciando não apenas os horizontes econômicos, como também a geopolítica, criando novas dependências e provocando uma corrida tecnológica dos países para se integrar aos sistemas protagonistas - Estados Unidos, China e União Europeia, que abrigam mais da metade dos data centers mais poderosos do mundo, estruturas grandiosas que desenvolvem sistemas mais complexos.


icon-aspas A ficção científica de Júlio Verne nós já superamos. Agora fica até difícil imaginar o que vem por aí com a computação quântica. É um outro mundo
Jorge Edison Ribeiro - pesquisador sênior da Fundação Araucária

De acordo com dados compilados por pesquisadores da Universidade de Oxford, apenas 32 países, ou cerca de 16% das nações, contam com estas centrais tecnológicas, essenciais para o que está sendo classificado como “poder computacional”.

Meses atrás, uma multinacional norte-americana, a RT-One anunciou a construção de um data center em Maringá, com investimento previsto de R$6 bilhões em uma área equivalente a quatro campos de futebol próxima ao aeroporto. Outra estrutura do tipo já anunciada fica em Eldorado do Sul, na região de Porto Alegre, a capital gaúcha.

Apesar de estar na lista dos países com grandes estruturas de desenvolvimento de IA, o Brasil vai ter que enfrentar seus demônios para não ficar para trás na corrida mais importante desta primeira metade do século 21.

O principal deles é a formação de mão-de-obra capacitada para desenvolver tecnologia própria, cujo obstáculo mais evidente é a deficiência das crianças brasileiras em matemática no ensino básico.

ENSINO DA MATEMÁTICA

No fim de 2024, um dado alarmante foi divulgado, juntando-se a outros como os resultados do Pisa (Programa Internacional de Avaliação de Alunos) e as próprias medições internas, e do Sistema de Avaliação da Educação Básica.

De acordo com o Timms (Estudo Internacional de Tendências em Matemática e Ciências), apenas 1% dos estudantes brasileiros do 4º ao 8º ano atingiram o nível máximo de proficiência (domínio do aprendizado). A média mundial é 7%, nos Estados Unidos 13% estão neste nível e na Coreia do Sul, 36%.

Em matemática, a pesquisa mostrou que 51% dos estudantes do 4º ano ficaram no nível mais baixo. Na média internacional, esse valor foi de 9%. Entre os alunos do 8º ano, a diferença aumenta, com 62% dos avaliados com baixo desempenho em matemática, ante 19% da média internacional.

Em 2021, o Saeb mostrou que apenas 37% dos estudantes do 5º ano atingem o nível esperado de aprendizagem em matemática. No 9º ano, esse número cai para 15%. Apenas 5% dos estudantes concluem o ensino médio com uma aprendizagem adequada.

O Ministério da Educação ainda investiga esta estagnação. Em abril, realizou a Escuta Nacional de Professores e Professoras que Ensinam Matemática. De um universo de 600 mil educadores que se dedicam à disciplina nos níveis fundamental e médio (incluindo os cursos profissionalizantes e os tecnológicos), menos de 60 mil responderam o questionário que abordava o perfil dos educadores, o percurso formativo, o contexto em que atuam, o clima escolar e as práticas pedagógicas. Os resultados vão orientar as ações e estratégias do Compromisso Nacional Toda Matemática, lançado esta semana.

“Não é novidade para ninguém que a gente vem há alguns anos enfrentando desafios em relação a aprendizagem da matemática. Temos um desempenho muito frágil e estamos em um patamar estagnado nos últimos dez anos ”, admitiu Kátia Schweickardt, secretária de Educação Básica do Ministério da Educação, em um dos webinários do MEC destinados a mobilizar os professores para a escuta.

Elite premiada nas competições de matemática mira graduação em IA

Ao mesmo tempo que o governo e a sociedade se desdobram para entender quais são os nós a serem desatados para fazer do Brasil uma nação alinhada aos padrões internacionais aceitáveis de desempenho no ensino de matemática, as competições estudantis com apoio oficial ganham cada vez mais prestígio e repercussão.

Na última semana de junho, em uma solenidade no Rio de Janeiro, com a presença do ministro Camilo Santana, 683 estudantes das 27 unidades da Federação receberam a medalha de ouro da Olimpíada Brasileira de Matemática das Escolas Públicas (OBMEP).

Promovida pelo Instituto de Matemática Pura e Aplicada (IMPA) desde 2005, a OBMEP reúne anualmente mais de 18,5 milhões de estudantes em 99,9% dos municípios brasileiros. Este ano, além da faixa principal, foram premiados 1.962 estudantes com a medalha de prata, 5.851 de bronze e 51.002 menções honrosas, além das premiações estaduais.

Tanto a academia quanto o mundo corporativo consideram estes medalhistas como uma elite capaz de conduzir os grandes projetos estratégicos do País em muitas áreas mas, sobretudo, na inteligência artificial.

Nas universidades, a graduação em Ciência de Dados e Inteligência Artificial começa a seduzir esta elite nascida no século 21, com o glamour midiático que um dia envolveu cursos como a Ciência da Computação, o Processamento de Dados, e as engenharias.

No Paraná, há boas notícias para aqueles que são bons em resolver equações muito mais difíceis do que escolher seu futuro profissional

Ativo há um ano, o 53ª curso de graduação da UEL - Ciência de Dados e Inteligência Artificial - estreou no vestibular como top 5 entre os mais concorridos, o atestado de sucesso de um projeto do Departamento de Computação da universidade que teve apoio nos bastidores da sua criação pelo governo do Estado de líderes do ecossistema de inovação, vereadores, deputados e da Prefeitura de Londrina.

Curso de Ciência De Dados e IA da UEL é o primeiro do gênero em universidade pública no Paraná
Curso de Ciência De Dados e IA da UEL é o primeiro do gênero em universidade pública no Paraná | Foto: Celso Felizardo

O curso é gratuito, oferece 50 vagas anuais, funciona no turno noturno, tem duração de quatro anos e é uma das pioneiras da rede pública superior do estado neste tipo de bacharelado - outro curso semelhante é o de Inteligência Artificial e Engenharia de Software do campus avançado da Universidade Federal do Paraná em Jandaia do Sul, na região de Maringá, que oferece 30 vagas anuais, com duração de quatro anos e meio e com aulas em período integral.

“Sentimos uma boa recepção de forma instantânea. No primeiro vestibular, em apenas uma semana de inscrição, num período fora do calendário e específico para o curso, que tinha acabado de ser aprovado, tivemos 800 inscritos”, conta o coordenador do curso, Daniel Kaster.

A grade curricular foi montada com base nas instruções da Sociedade Mundial da Computação. Disciplinas como Algoritmos, Introdução à Ciência de Dados e Inteligência Artificial, Cálculo Diferencial e Integral, Matemática Discreta e Finita, Estrutura de Dados, Programação Orientada a Objetos, Probabilidade, por exemplo, integram o currículo do primeiro ano. “A grade envolve estes fundamentos matemáticos, estatísticos, os fundamentos da computação e depois toda a parte especializada, de aprendizado da máquina e da ciência de dados, que são os dados preparados para fazer o IA”, explica Kaster.

Muitas aulas usam uma estrutura adaptada no segundo piso do Centro de Ciências Exatas. É o Laboratório de Computação, remodelado, ampliado e equipado para receber as novas turmas, conquista estratégica que fez parte do lobby dos professores do departamento para viabilizar o curso.

Professora Helen Cristina de Mattos Senefonte
Professora Helen Cristina de Mattos Senefonte | Foto: Celso Felizardo

A professora Helen Cristina de Mattos Senefonte, que leciona no Departamento de Computação desde 2006, acompanhou toda a estruturação do curso e como o assunto estava adormecido antes de se tornar o mais comentado na mídia, nas redes sociais, nas empresas e nos governos. “Foi depois da pandemia, com a popularização do chatgpt, que o panorama mudou completamente. Foi um divisor de águas”, explica, sugerindo que o bacharelado se impôs pelo interesse generalizado pelo assunto.

O mesmo burburinho em torno da IA que fez o governo do estado se mexer e aceitar os argumentos da academia e da sociedade civil está levando os jovens bons de matemática e que gostam de tecnologia a mirar o diploma de bacharelado em IA e Ciência de Dados como um diferencial na carreira.

É o caso de Guilherme Nascimento Braga, de 25 anos, medalhista da OBMEP e de outras competições estudantis de matemática, mas que chegou a hesitar para encarar um curso na área de tecnologia, com passagens na graduação de Psicologia e em Ciências Contábeis. “Quando veio o ‘boom’ da IA, tudo fez muito sentido para mim. Ao saber do novo curso na UEL, não pensei duas vezes”.

Ele pretende seguir a área acadêmica porque entende que vai o mercado para docentes e pesquisadores na área estará muito aquecido nos próximos anos. “Eu me vejo mais nesse horizonte. Me atrai a ideia de descobrir coisas novas, desenvolver novas ferramentas, acho muito empolgante”.

Gabriela Vitória Vieira e Guilherme Nascimento Braga, alunos da primeira turma do curso da UEL
Gabriela Vitória Vieira e Guilherme Nascimento Braga, alunos da primeira turma do curso da UEL | Foto: Celso Felizardo

A colega de turma, Gabriela Vitória Vieira, 20 anos, acredita que ainda precisa avançar mais nos estudos, que “tudo é muito novo” e que a cada aula descobre novas possibilidades. Em contraponto ao colega, ela acredita que vai atuar no mundo corporativo e que, no momento certo, vai identificar qual o melhor segmento para sua carreira. Ambos demonstraram muita confiança no futuro profissional de quem faz parte desta história pioneira na UEL, um grupo de estudantes que contraria as estatísticas de um País que ainda patina quando precisa fazer um simples cálculo.

Brasil tem nove entre os 500 supercomputadores mais potentes do mundo

Especialistas defendem necessidade de desenvolvimento de máquinas avançadas para diminuir dependência por bigtechs e proteger dados sensíveis

Capazes de realizar trilhões de cálculos por segundo, os supercomputadores são máquinas de altíssimo desempenho, projetadas para resolver problemas complexos que desafiam a capacidade dos computadores comuns. Utilizados em pesquisas científicas, modelagens climáticas, estudos genômicos e desenvolvimento de novas tecnologias, esses equipamentos representam o que há de mais avançado na computação mundial e são fundamentais para os avanços em inteligência artificial.

O Brasil marca presença no ranking TOP500, ranking que reúne os supercomputadores mais potentes do planeta, com nove máquinas listadas na edição de junho de 2025. É a melhor posição do Brasil no levantamento. Desses, seis pertencem à Petrobras, que utiliza esses recursos para pesquisas avançadas. O destaque nacional é o Pégaso, que ocupa a 86ª posição com capacidade de 19,07 petaflops.

Imagem ilustrativa da imagem No princípio era o verbo, e o verbo se fez código

Apesar de ser o supercomputador mais poderoso da América Latina, o Pégaso aparece consideravelmente atrás dos gigantes globais. Os Estados Unidos têm quatro supercomputadores entre os cinco primeiros. O líder mundial, o americano El Capitan, atinge impressionantes 1,74 exaflops - cerca de 90 vezes a potência do Pégaso. Um cálculo científico que o sistema instalado no Laboratório Nacional Lawrence Livermore (LLNL), na Califórnia, realiza em um minuto levaria aproximadamente 1 hora e 30 minutos para ser concluído pelo Pégaso.

Pégaso, da Petrobras, é hoje o supercomputador mais poderoso da América Latina
Pégaso, da Petrobras, é hoje o supercomputador mais poderoso da América Latina | Foto: Felipe Gaspar/Agência Petrobras

Além dos nove supercomputadores presentes no ranking, o Brasil possui alguns outros clusters em universidades e instituições de pesquisa. O Coaraci, da Unicamp, é um exemplo. Instalado pela Fundação de Amparo à Pesquisa do Estado de São Paulo (Fapesp) a um custo de R$ 12 milhões, o equipamento é compartilhado com outras universidades e instituições de ensino, além de atender demandas empresariais.

Imagem ilustrativa da imagem No princípio era o verbo, e o verbo se fez código

O Cluster Coaraci (“mãe do dia”, em tupi) tem capacidade de 801 teraflops, com mais de 13 mil núcleos de CPU (unidades de processamento central) e 42 GPUs (unidades de processamento gráfico), um dos maiores desempenhos de um supercomputador utilizado no ambiente acadêmico brasileiro.

O Santos Dumont, instalado no LNCC (Laboratório Nacional de Computação Científica) em Petrópolis (RJ), com seus 14,29 petaflops, é a principal referência para pesquisadores brasileiros, mas a fila de espera para sua utilização remota é grande. A rede nacional de computação de alto desempenho (HPC) tem ainda centros em Cachoeira Paulista (SP), Porto Alegre, Rio de Janeiro, Belo Horizonte, Fortaleza, Recife e Manaus.

El Capitan, o supercomputador mais rápido do mundo
El Capitan, o supercomputador mais rápido do mundo | Foto: Garry McLeod/LLNL

A grande expectativa em torno do fortalecimento da rede vem do Plano Nacional de Inteligência Artificial que tem a intenção de investir R$ 20 bilhões em IA até 2030, de acordo com dados do Ministério da Ciência, Tecnologia e Inovação.

Riscos da dependência

Especialistas no setor apontam que a demanda por supercomputadores no país é altíssima, porém mais do que isso, é preciso treinar pessoal e dominar a tecnologia de construção de máquinas avançadas próprias, atingindo assim a soberania nacional.

O pesquisador sênior da Fundação Araucária, Jorge Edison Ribeiro, detalha o cenário. “As potências mundiais não têm interesse que esse tipo de tecnologia se propague, porque pode haver uso bélico, simulando teatro de batalhas, projetando bombas. Mas mesmo que o foco da pesquisa não seja esse, você fica sujeito a um determinado conjunto de normas que foram combinadas por pessoas que detêm a tecnologia para não deixar que você consiga fazer ‘processamentos perigosos’”, analisa. “O Santos Dumont, mesmo, que gastamos milhões de dólares. Se você tentar rodar um algoritmo que eles consideram ‘perigoso’, você não consegue", exemplifica.

William Wolf, coordenador do Laboratório de Ciências Aeronáuticas da Unicamp, conta que as pesquisas aeroespaciais mais avançadas feitas na Unicamp ainda dependem de supercomputadores baseados nos Estados Unidos e na França. “Antes do Coaraci, 95% das minhas pesquisas, por exemplo, era feito em supercomputadores de fora do Brasil. Hoje, esse essa dependência é de 70%”, quantifica.

Segundo ele, quando há dependência externa, os projetos precisam entrar em uma fila de espera global e muitas vezes os resultados precisam ser compartilhados com grupos estrangeiros antes de serem processados. “Esses dados são extremamente difíceis de obter. São sensíveis, pois se trata de inovação tecnológica, estratégicos para o desenvolvimento tecnológico do Brasil. Muitas vezes, nós temos que compartilhar nossas pesquisas avançadas e não temos chance participar das pesquisas deles”, explica Wolf.

Demandas

Ter um supercomputador nível TOP500 em cada universidade brasileira seria um sonho, mas Wolf diz que uma rede com máquinas de diferentes capacidades se adaptaria bem ao cenário nacional. O pesquisador divide os usuários de supercomputadores em três grupos: aqueles com necessidades menores, que demanda dezenas de núcleos de processadores por algumas horas; os de porte moderado, que precisam de centenas de núcleos por uma ou duas semanas; e os grandes usuários, que trabalham meses em projetos com milhares de núcleos de processamento. “Uma pesquisa de clima, por exemplo, precisa de muito tempo de máquina para simular todas as escalas de variações temporais, para se chegar a uma conclusão. Já o desenvolvimento de um medicamento, que simula como as moléculas estão se encaixando, pode ter um tempo muito menor de uso do supercomputador”, compara.

Paraná projeta salto tecnológico em parceria com a Índia

Acordo de cooperação com centro de pesquisa indiano prevê supercomputadores para universidades estaduais e transferência de tecnologia

Ao observar a tropa de “cavalos encilhados” que passou sem ser laçada ao longo das últimas décadas, os especialistas em tecnologia do Paraná agora não querem deixar escapar mais nenhuma oportunidade. O objetivo é um só: estabelecer, enfim, uma marcha sólida rumo ao futuro que passa, invariavelmente, por Ciência, Pesquisa, Tecnologia e Inteligência Artificial.

Imagem ilustrativa da imagem No princípio era o verbo, e o verbo se fez código
| Foto: Jonathan Campos/Secom

Investimentos em formação de mão de obra e aquisição e desenvolvimento de tecnologia própria se tornaram prioridade nas secretarias de Ciência, Tecnologia e Ensino Superior do Paraná (Seti) e da Inovação e Inteligência Artificial (Seia). A principal aposta do Estado para romper os gargalos e obter o protagonismo na revolução digital da IA é uma parceria com a Índia, que prevê a aquisição de sete supercomputadores de 300 teraflops - um para cada universidade estadual- , além de duas máquinas mais potentes, na casa dos 600 teraflops. “Uma para vai comandar as outras, e a outra para pesquisa e ensino de IA”, detalha o secretário da Seti, Aldo Bona.

O investimento é de R$ 123 milhões nos supercomputadores e de R$ 65 milhões na rede que irá integrá-los. O acordo de cooperação com a Índia prevê o fornecimento dos equipamentos, mas também a transferência de tecnologia, o que permitirá a formação de mão de obra especializada e o desenvolvimento de soluções próprias no Estado. A previsão da pasta é que as primeiras máquinas já estejam em funcionamento no primeiro semestre de 2026. “Sabemos que este é um tema urgente, que transforma realidades, pois vai além da pesquisa e impacta diretamente a prestação de serviços”, comenta Bona.

A iniciativa foi costurada durante uma visita oficial à Índia, em que uma comitiva liderada pelo governador Ratinho Junior conheceu o Center for Development of Advanced Computing (C-DAC), instituição responsável pelo desenvolvimento do Airawat, supercomputador indiano que ocupa a 136ª posição no ranking mundial TOP500, com capacidade de 8,5 petaflops.

A adoção desta rede de supercomputadores trará uma atualização aos “modestos” recursos computacionais existentes hoje no estado, de acordo com a avaliação do pesquisador Jorge Edison Ribeiro. Atualmente, a referência para os pesquisadores paranaenses é o Param Shavak, um supercomputador indiano instalado no campus da Universidade Estadual de Ponta Grossa (UEPG) com capacidade de 5 teraflops.

Segundo o diretor do setor de TI (Tecnologia de Informação) da universidade dos Campos Gerais, Luiz Gustavo Barros, trata-se de um modelo “in a box”, com dimensão um pouco maior que um gabinete de um computador pessoal comum. “Apesar de ser uma máquina menor que os grandes clusters, ele pode ser, sim, definido como um supercomputador”, explica.

Barros relata que o Param Shavak consegue atender 95% da demanda computacional básica atual. “Nos ajuda muito, porque com os dados parametrizados fica mais fácil terminar a pesquisa em um supercomputador mais potente, quando for o caso”, detalha.

As maiores demandas hoje são nas áreas de biocomputação, genômica, e medicina de precisão, dentro dos NAPIs (Novos Arranjos de Pesquisa e Inovação), mantidos pela Fundação Araucária e Seti.

Entre os principais projetos desenvolvidos nos NAPI com a ajuda de supercomputadores estão sequenciamento genômico para observar a relação entre o genoma do SARS-CoV-2 e a evolução clínica dos pacientes com COVID-19 no Paraná. Outros projetos do agro e estudos climáticos também se destacam. “Com uma estrutura moderna, o objetivo é que o Paraná, com seus mais de 20 mil doutores, seja um polo e uma referência em pesquisa e desenvolvimento aliados com inovação e tecnologia”, projeta Bona.

Placas criadas para jogos impulsionam supermáquinas

Um dos segredos por trás da potência dos supercomputadores modernos está nas GPUs, as unidades de processamento gráfico. Criadas originalmente para acelerar os gráficos de videogames e computadores pessoais, essas placas foram se mostrando ideais para lidar com outro tipo de desafio: processar enormes volumes de cálculos em paralelo, algo essencial em pesquisas científicas e aplicações de inteligência artificial.

Imagem ilustrativa da imagem No princípio era o verbo, e o verbo se fez código
| Foto: Garry McLeod/LLNL

Enquanto um processador tradicional (CPU) executa tarefas em sequência, com foco em poucas operações por vez, as GPUs brilham quando se trata de dividir um cálculo gigantesco em milhares — ou milhões — de pequenos pedaços e trabalhar com todos ao mesmo tempo. É essa capacidade de paralelismo que transformou as GPUs em peças-chave nos maiores supercomputadores do mundo.

Hoje, praticamente todos os supercomputadores do TOP500, incluindo o El Capitan e o Pégaso, contam com milhares de GPUs em suas arquiteturas. É a combinação das CPUs e das GPUs que permite atingir números tão impressionantes, como os 1.742 petaflops do líder mundial. E a demanda só aumenta: com o avanço da inteligência artificial, essas placas gráficas passaram de coadjuvantes dos games para protagonistas da corrida global por mais poder de cálculo.

Consumo de energia e resfriamento são desafios

Por trás da impressionante potência dos supercomputadores está um desafio cada vez mais relevante: o alto consumo de energia. Equipamentos como o El Capitan, líder mundial em desempenho, podem demandar mais de 30 megawatts para funcionar plenamente — energia suficiente para abastecer uma cidade de médio porte. No Brasil, máquinas como o Pégaso e o Santos Dumont também consomem volumes expressivos, o que exige planejamento não apenas tecnológico, mas também de infraestrutura elétrica, com fornecimento estável e eficiente.

Esse enorme gasto energético vem acompanhado de outro obstáculo: o calor gerado durante o funcionamento. Os supercomputadores trabalham em carga máxima durante longos períodos e atingem temperaturas que podem danificar componentes caso não sejam resfriados de forma adequada. Para evitar falhas, os centros de computação mantêm sistemas avançados de refrigeração, que incluem desde ar-condicionado industrial até o uso de circuitos fechados de água gelada e outras soluções inovadoras. No caso de máquinas maiores, como o El Capitan, o sistema de resfriamento ocupa uma área quase tão extensa quanto o próprio conjunto de servidores.

Especialistas destacam que tornar os supercomputadores mais eficientes e sustentáveis é uma das prioridades da ciência mundial. William Wolf, que também é vinculado ao setor de energia da Unicamp, pondera que atualmente, o consumo energético por flops é menor do que o de máquinas de gerações anteriores, mas como o poder computacional é cada vez maior, o desafio aumenta. “É uma preocupação que está na pauta do setor”, garante.

Futuro: O fantástico mundo da computação quântica

Um computador capaz de realizar em minutos cálculos que os supercomputadores mais avançados do mundo levariam milhões de anos. Essa é a promessa da computação quântica, uma tecnologia que começa a sair dos laboratórios e desafia tudo o que conhecemos sobre processamento de dados. Mas para funcionar, essas máquinas precisam de condições extremas: escuridão quase total, isolamento absoluto e temperaturas abaixo de -270 graus Celsius. Qualquer mínima instabilidade — um ruído, uma variação de calor, uma vibração — pode fazer com que percam suas propriedades quânticas e se tornem, na prática, apenas mais um supercomputador tradicional.

Imagem ilustrativa da imagem No princípio era o verbo, e o verbo se fez código
| Foto: Bartlomiej Wroblewski/Getty Images

Mas afinal, o que torna a computação quântica tão especial? Nos computadores comuns, a base é o sistema binário: cada bit pode estar em apenas um estado de cada vez — 0 ou 1. Já na computação quântica, os bits quânticos, ou qubits, podem estar em ambos os estados ao mesmo tempo, fenômeno conhecido como superposição. Esse comportamento permite uma capacidade de paralelismo inatingível para as máquinas tradicionais. Como explicam os especialistas, é difícil até mesmo descrever esse universo invisível.

As bigtechs estão na corrida pelo domínio da tecnologia. A IBM afirmou recentemente ter conseguido estabilizar suas máquinas por mais tempo do que antes imaginado, um passo essencial para tornar o quântico uma realidade prática. O Google também investe pesado na busca por um computador quântico funcional e confiável.

Jorge Edison Ribeiro lembra que há pouco mais de uma década, quando o filósofo sueco Nick Bostrom escreveu o livro "Superinteligência: Caminhos, Perigos, Estratégias”, todos aqueles conceitos lhe pareceram distantes demais, alguns até mesmo utópicos. “Hoje, já mudei completamente a forma de pensar. Com as hiper revoluções que ocorreram no setor de tecnologia nos últimos 10 anos, muita coisa abordada ali já se tornou realidade”, reconsidera.

O pesquisador conjectura sobre as possibilidades e os perigos por trás das novas tecnologias. “O poder computacional das máquinas que estão sendo construídas é muito grande. E como elas já são muito mais inteligentes que o homem, é difícil imaginar o limite a ser atingido. As pesquisas poderão tanto acabar com doenças, como destruir o mundo. Será preciso muita cautela”, adverte.

O futuro da tecnologia é, ao mesmo tempo, fascinante e desafiador. A popularização da inteligência artificial, impulsionada por modelos de linguagem que respondem a comandos de texto simples, cria a impressão de que a tecnologia é acessível e intuitiva. Mas essa aparente simplicidade esconde uma complexidade gigantesca. Por trás de respostas rápidas e interativas, há modelos alimentados por volumes imensos de dados e cálculos que exigem conhecimento avançado em matemática, física e computação. Nunca as ciências exatas foram tão essenciais. Para que o Brasil aproveite plenamente as oportunidades da nova revolução tecnológica, será indispensável investir na formação de profissionais preparados para criar, entender e aprimorar essas ferramentas, além de investir nessas tecnologias.