Métricas de desempenho para Computação Quântica (CQ) - Parte 2.
Academia do Código Quântico |
2021, ano 1-2 da era NISQ
A pergunta a seguir foi a incógnita que ficou no final do artigo anterior (Parte 1) sobre a questão da supremacia quântica nas métricas de desempenho quântico. Então, sem demora, vou direto ao assunto.
NISQ! Que raio é isso agora?
NISQ é a abreviatura para Noisy Intermediate-Scale Quantum ou em português, Quântico de Escala Intermediária Ruidosa (em alguns contextos encontramos a tradução Barulhenta para Noisy), uma palavra de autoria do professor de física John Preskill [1], do IQIM-Caltech, que a introduziu em seu discurso na Quantum Computing for Business em 5 de dezembro de 2017 chamando a atenção para o fato de a ciência física agora estar adentrando à "fronteira da complexidade ou do emaranhamento quântico", ao fazer referência aos computadores quânticos que apresentam números entre 50 a algumas centenas de qubits (os bits quânticos que explicarei mais adiante) e não tolerantes às falhas ou ruídos. Posteriormente, em 2018, o discurso do professor Preskill foi publicado no site arxiv.org [2].
No contexto da participação global de negócios quânticos, a palavra NISQ representa o nicho de mercado da quinta geração dos computadores [3], já que as projeções de aplicação somam algo em torno de U$ 65 bilhões de investimentos com crescimento de 56% entre 2020 e 2030 [4], sendo a geração de computadores marcada pela transição dos bits para os qubits, que temos por meta traduzir todo este potencial de recurso projetado em respostas de soluções às complexidades dos problemas quânticos apresentados em exigências.
Já no contexto tecnológico, a palavra NISQ representa uma era que nasceu em outubro de 2019, considerando o anúncio da Google apesar das controvérsias já descritas na Parte 1, e está focada nos estudos e pesquisas de desenvolvimentos de computadores quânticos NÃO tolerantes às falhas, onde os algoritmos precisam fornecer soluções práticas e úteis aos desafios de hardwares, medidas e apuradas em comprovações, principalmente nas exigências que dizem respeito aos cinco itens abaixo:
(i) correções de conectividade com os sistemas clássicos ou tradicionais;
(ii) quantidades de qubits físicos instalados;
(iii) correções das taxas de erros de portas;
(iv) decoerência (perda original) de estados, e;
(v) sensibilidades de ruídos externos (ambiente).
Portanto, NISQ é mais que uma simples palavra. NISQ é viver o estado da arte da computação quântica e até que tenhamos apresentado respostas às questões acima, que representam a era NISQ de Preskill, não teremos acesso de experiência às máquinas tolerantes às falhas que exigem longas sequências de operações de portas quânticas com milhões de qubits instalados ou seja, antes de no mínimo uma década ainda podemos não vivenciar a era da Computação Quântica Universal, a CQU.
Medidas, Correções e comparações quânticas.
Para que você possa entender e começar a se envolver melhor nas situações (da corrida) neste estado da arte, deixe-me explicar rapidamente o que é um bit quântico ou qubit que já falei anteriormente acima.
Pois bem, na computação clássica a representação dos valores de estados físicos é feita unicamente pelo 0 ou pelo 1 denominados bits, já na computação quântica o valor do estado físico de um bit quântico ou qubit, abreviadamente, pode ser representado pelo 0, pelo 1, pela sobreposição do 0 e do 1 ao mesmo tempo e ainda, pela possibilidade de dois ou mais qubits se influenciarem mesmo que distantes um do outro e a isto denominamos "emaranhamento quântico", que é o recurso que fornece muito mais poder de processamento a um computador quântico. As equivalências entre qubits e bits são: 1 qubit = 2 bits, 2 qubits = 4 bits, 3 qubits = 8 bits (1 byte), 4 qubits = 16 bits, 5 qubits = 32 bits, ... , n qubits = 2^n.
Agora, vamos iniciar com a seguinte analogia. Imagine que você possua um celular com alguma versão antiga no sistema operacional (SO) e queira utilizar as suas redes sociais ou atualizar algum app do seu interesse e que, mesmo com pouco espaço de armazenamento no aparelho e informações de advertências de que a atualização causará erros na execução das funcionalidades do software, apesar disso, insistentemente você obtém sucesso na atualização e aí então, ao abrir o aplicativo ou acessar as redes sociais, você, pacientemente tolera as inúmeras e constantes deficiência e lentidão do sistema, isto, porque o software está tentando rodar (ser executado) sob uma versão de base lógica operacional (SO), e certamente física também, abaixo dos requisitos de recursos míninos exigidos na atualização.
Assim, podemos usar a analogia descrita para fazer uma comparação com o item (i) listado anteriormente, quero dizer, na computação híbrida (que são as atividades que utilizam computadores quânticos e clássicos) os algoritmos que processam computadores quânticos fazem a chamada "redução de carga" na simulação das respostas enviadas aos computadores clássicos devido as suas diferenças nas capacidades de processamentos utilizando um Algoritmo de Otimização Quântica Aproximada (QAOA, em inglês), com o objetivo de "orientar" um estado altamente emaranhado em um sistema quântico, para um estado alvo que minimiza uma função de custo por meio da variação de alguns parâmetros de porta [5].
Agora, voltando à nossa analogia anterior, hoje ninguém eterniza paixão por algum celular por muito mais tempo até saber que um novo modelo está sendo oferecido em promoção com muito mais possibilidades de recursos, assim como potência e consumo de bateria, resolução de tela inigualável, qualidade e quantidades de câmeras superiores, poder do processamento, além é claro, das capacidades de armazenamento preferencialmente beirando ao infinito. Portanto, para identificar essas características algum conhecimento sobre recursos técnicos a pessoa precisa obter, para apurar as medidas e poder compará-las antes de chegar a uma decisão sobre um determinado dispositivo.
Aqui neste ponto, a analogia comparativa com NISQ se dá com relação aos itens (ii) e (iii) que fazem referência a "Escala Intermediária" e os itens (iv) e (v) que fazem referência ao "Ruidoso" ou "Barulhento".
Assim, as necessidades de se medir características de recursos quânticos é algo que chama a atenção da iniciativa empresarial, que enxerga nessas necessidades as oportunidades para obter uma fatia do mercado, mesmo que por mais difíceis que sejam as tecnologias, e elas são complexas.
Neste contexto, entre outras, nasce a Quantum Benchmark, uma empresa fornecedora de soluções de software de diagnósticos, supressão de erros e validação de desempenho para hardware de computação quântica, em Ontário, no Canadá e que é apoiada por fundos de risco, em 2021 ela foi adquirida pela Keisight Technologies, Inc..
Em um comunicado à imprensa de 29/11/2019 a Quantum Benchmark anunciou um primeiro protocolo escalonável para avaliar as capacidades práticas dos principais computadores quânticos, acrescentando no comunicado que a IBM e a Google já os utilizavam em seus sistemas quânticos Qiskit e Cirq, respectivamente, as soluções True-Q™ da Quantum Benchmark.
Em um artigo publicado na revista Nature Communications com o título "Caracterizando computadores quânticos de grande escala via benchmarking de ciclo" [6], a empresa resume que este é um protocolo rigoroso e escalável capaz de caracterizar erros locais e globais em processadores quânticos multi-qubit, demonstrando experimentalmente a quantificação de erros em operações de emaranhamento e não emaranhamento com até 10 qubits.
"Com a corrida quântica apenas começando, a indústria está esquentando e a sua rápida expansão evidencia importantes anúncios recentes e a solução de benchmarking em ciclos permite uma avaliação das capacidades das diferentes plataformas de hardwares de forma confiável a seus aplicativos", disse Kristine Boone, chefe de desenvolvimento de negócios da Quantum Benchmark.
Apesar de a corrida da computação quântica estar no início, as empresas do topo da pilha quântica, cada uma delas, é claro, busca alinhar o seu próprio padrão de medida e comparação segundo a arquitetura tecnológica que desenvolve para assim assegurar sua liderança no segmento.
IonQ e IBM por exemplo, com arquiteturas de tecnologias de computadores com processadores supercondutores e íons aprisionados, dependem de uma necessidade de criogenia que chega atingir 0,1 kelvin (bem próximo ao zero absoluto, -273,15°C) complexamente instalados em refrigeradores de diluição (geladeiras quânticas) [7], que pelo tamanho destes refrigeradores e os espaços dos ambientes que ocupam até nos faz lembrar (em realidade ou imagens já visualizadas a depender da sua idade) o início da computação tradicional ou clássica das décadas de 50/60. Nesta largada da corrida as empresas recebem e/ou investem aportes financeiros em parcerias com startup's recém estabelecidas no mercado que assim, conseguem entrar pesado nesta disputa, evidentemente com cada uma se envolvendo em um respectivo desenvolvimento que é o seu foco quântico, auxiliando no desenvolvimento desta corrida conforme a sua especialidade.
A IonQ com a equipe do Quantum Economic Development Consortium (QED-C), que é um consórcio apoiado pelo NIST (National Institute of Standards and Technology ou Instituto Nacional de Padrões e Tecnologia) que juntamente com a NASA (National Aeronautics and Space Administration ou Administração Nacional da Aeronáutica e Espaço) participam de uma estratégia do governo dos EUA para o avanço da ciência da informação quântica, optou por uma medida de benchmarks de desempenho orientado a aplicativos.
Uma primeira versão divulgada pela IonQ em 18/10/2021, o "Benchmarks de Desempenho Orientado à Aplicativos para Computadores Quânticos" [8] foi projetado para medir a eficiência do hardware quântico em função dos muitos algoritmos quânticos existentes, enquanto o tamanho do problema é variado, com uma metodologia de acompanhamento do avanço da computação quântica nos próximos cinco anos.
Nela, a empresa aposta nas palavras de Dominik Andrzejczuk, da Atmos Ventures quando diz que "quanto mais baixas as taxas de erro, menos qubits físicos você realmente precisa (...) um dispositivo com 100 qubits físicos e uma taxa de erro de 0,1% pode resolver mais problemas do que um dispositivo com um milhão de qubits a uma taxa de erro de 1%.".
Já a IBM recentemente (em 16/11/2021) anunciou em seu blog o processador quântico com 127 qubits porém, foi cautelosa ao afirmar que "ainda há trabalho a ser feito. A escala de um chip quântico é apenas uma das três métricas para medir o desempenho de um processador quântico, e devemos continuar impulsionar a qualidade e a velocidade dos nossos processadores" [9].
A cautela da IBM reflete a atenção da empresa para o que ela adota como as três medidas para se obter uma resposta de desempenho completa dos computadores quânticos ou seja, escala, qualidade e velocidade.
2020 : 65 qubits - Hummingbird ✓
2021 : 127 qubits - Eagle ✓
2022 : 433 qubits - Osprey ♦
2023 : 1.121 qubits - Condor ♦
A medida da qualidade para a IBM é o cálculo de Volume Quântico, QV, que é uma unidade de atribuição fornecida ao desempenho dos computadores quânticos em função da decoerência dos qubits conforme explicado abaixo.
Um qubit tende à decoerência em menos de um milissegundo. O protocolo QV pode executar testes aleatórios em circuitos quânticos que apresentam uma determinada largura (quantidades de qubits envolvidos) e profundidade (números de etapas de tempos que o circuito processa antes da decoerência) identificando o maior circuito onde a largura e a profundidade são iguais, que após executar o circuito com sucesso várias vezes, o processo para na maior profundidade e largura, com intervalo de confiança maior que 97,725%.
- a velocidade das portas em execução;
- o tempo de execução de compilação;
- o tempo de geração das instruções de controles clássicos;
- os dados da taxa de transferência entre todas as unidades.
A Honeywell, utilizando o Volume Quântico da IBM, anunciou em 13/03/2021 ter quadruplicado a capacidade do seu poder de processadores quânticos de 64 qubits para 128 qubits com o lançamento do seu processador H1 de íons presos, atingindo um QV de 128 unidades e uma fidelidade média de porta de 99,991%.
Vale lembrar que as métricas apresentadas aqui são de arquiteturas de computadores quânticos supercondutores e armadilha de íons aprisionados e que, para se obter métricas de desempenho completas e satisfatórias temos que considerar também outras arquiteturas não citadas como:
- Computação Quântica Annealing, é a solução apresentada pela D'Wave e NEC;
- Computação Quântica Fotônica, é a solução apresentada pela Xanadu;
- Computação Quântica de armadilha de Átomo Neutro, é a solução apresentada pela Pasqal e QU Era Computing;
- Computação Quântica Simulada (clássica), é a solução apresentada pela Microsoft e Amazon;
- Computação Quântica Inspirada (clássica), é a solução apresentada pela Fujitsu Digital.
Neste sentido o IEEE (Institute of Electrical and Electronics Engineers), que é o Instituto de Engenheiros Elétricos e Eletrônicos nos EUA, está propondo o P-7131 [10] como um Padrão às métricas de desempenho da computação quântica e benchmarking de desempenho, devido a falta de uma documentação padrão, visando contemplar as muitas tecnologias da computação quânticas existentes em relação às suas arquiteturas clássicas e entre si, conforme divulga o Presidente do Grupo de Trabalho sobre Padrões de Computação Quântica em uma resposta no site QA Stack para a pergunta "Como comparar diferentes dispositivos de computação quântica?" [11] (último acesso 30/11/2021).
Uma elaboração complexa porém, de extrema importância nesta fase e que será muito bem vinda tendo em vista o envolvimento de outros órgãos de padronização que poderiam perfeitamente agirem em mediação de possíveis casos divergentes, a exemplo do caso da supremacia quântica citada no artigo anterior "Parte 1".
Com este artigo, que se completa em duas partes, espero que eu tenha conseguido esclarecer um pouco para você sobre (1) as controvérsias da Supremacia Quântica, (2) o que é e o que representa a era NISQ que estamos vivendo hoje na computação e (3) as reais necessidades de algoritmos eficientes para medir, corrigir e comparar o desempenho dos computadores quânticos por mais complexos que sejam, nesta transição dos bits para os qubits.
Conclusão.
Apesar de a corrida da computação quântica estar apenas no início, é nítido que as movimentações das máquinas nos circuitos só ocorrem em função das negociações promovidas pelos boxes, pois além de complexa a computação quântica, ainda, é cara e mesmo com a abundância de iniciativas de recursos financeiros até agora despejados daquele lado de cima da linha do equador, ainda assim, não é possível arriscar qualquer palpite para a próxima temporada (2022), exceto assistir a acirrada disputa entre os circuitos dos EUA e da China, onde recentes publicações afirmam que o governo Bayden anunciou estar colocando oito empresas chinesas de computação quântica na lista negra com preocupações de que suas tecnologias representem riscos à segurança nacional dos EUA em criptografia [12] e o domínio da computação quântica [13], mesmo porque, a mecânica quântica ensina desde o início que, nesta corrida o que prevalece é o princípio da incerteza de Heisenberg [14] ou seja, "não se pode conhecer com precisão absoluta a posição e o momento de uma partícula" e assim só obtemos probabilidades como resultados.
Sendo assim, proponho aproveitarmos deste início da era NISQ, em trânsito de bits e qubits, para também iniciarmos a nossa movimentação pelos boxes aqui abaixo da linha do equador e lembrar ao mundo da existência de outro princípio da mecânica quântica que é a "Função de Onda de Schrödinger", [15] uma equação para calcular a probabilidade de se encontrar uma partícula quântica em um estado do sistema, que analogamente, pode gerar ações de recursos próprios de desenvolvimento ao Circuito Brasileiro da Computação Quântica (física e lógica) ou CBCQ, com iniciativas de apoio financeiro, patrocínio e marketing no fortalecimento das equipes brasileiras já em atividades como os institutos de pesquisas, universidades, inovadores e incentivadores tecnológicos, estudantes em formação, etc., visando ocuparmos a nossa posição nesta corrida quântica, fazendo assim valorizar os integrantes ao nosso próprio circuito e quiçá, poder entregar uma probabilidade elevada de vantagem quântica brasileira já na próxima temporada de 2022 (ano 2-3 da era NISQ) como resultado de nossas próprias produções ao mundo todo.
Isto, para não termos que eternizar frases do tipo "No Brasil, carro não se faz, se compra" como ditas a Amaral Gurgel (Engenheiro e empresário brasileiro - 26/06/1926 a 30/01/2009) ao apresentar seu trabalho de conclusão de curso com o Tião, "primeiro automóvel genuinamente brasileiro" [16] e assim não ficarmos apenas pagando para consumir algo que temos plena capacidade de produzir. E para isto, você pode começar clicando na imagem da capa da revista abaixo.
Um forte abraço e até a próxima.
Revista de treinamento e palestra da Academia do Código Quântico |
Links de acesso das referências
[2] https://iqim.caltech.edu/profile/john-preskill/
[3] https://www.reply.com/en/topics/quantum-computing/quantum-computing-from-science-to-business
Curta nossa página no Facebook
*****************
Comentários
Postar um comentário