É incrível, mas para iniciar este artigo especial em homenagem e comemoração ao Dia Quântico (14/04), um assunto sobre algo tão minúsculo, na verdade microscópico, responsável pela existência dos quantum system (sistemas quânticos), eu vou me fazer valer do macroscópico ou melhor dizendo, do universo na sua forma mais completa possível que é o Universo Observável com seus 8.8 x 10^26m ou 880 Ym (Yotametros) de diâmetros.
Tente agora comparar, pela régua escalar abaixo dos múltiplos e submúltiplos do metro, o tamanho do Universo Observável em Yotametros, informado no primeiro parágrafo, com o tamanho nanométrico de um átomo dado no parágrafo anterior e aí você estará diante do que eu chamo de incrível.
O incrível está justamente neste poder transformador que até hoje temos como sendo infinito. O incrível é saber que toda essa imensidão macro é formada por elementos micros e que são eles mesmo, os responsáveis por estes desenvolvimentos transformadores em mais de 13 bilhões de anos e a atual forma de todo Universo Observável, de tudo o que existe e tem vida sobre ele.
O espectro abaixo representa apenas o intervalo da frequência perceptiva visível ao olho humano.
Pelo espectro visível, que o olho humano interpreta como cor, é possível perceber a intensidade de luz visível apenas no intervalo que estiver na frequência de ondas entre 400nn a 700nn, o que quer dizer que, tudo que estiver abaixo ou acima desta frequência só podemos visualizar com algum recurso de dispositivo especial.
É neste momento que a ciência tecnológica humana entra em cena, desenvolvendo e aperfeiçoando dispositivos que nos permitem ampliar artificialmente o nosso campo de visão (acuidade) que, dependendo da intensidade da luz é possível chegar à distâncias de milhões de anos-luz, como por exemplo gigantescas galáxias quando munidos de potentes telescópios ou por outro lado, também, permitir conhecer em potentes microscópios, as minúsculas partículas elementares dos átomos que nos eventos mais impossíveis a olho nu, como por exemplo além de 100μm, o equivalente ao diâmetro de um fio de cabelo ou cinco fotos incidindo simultaneamente sobre cinco bastonetes (células oculares de detecção do nível de luminosidade) da estrutura ocular.
A tecnologia mais potente atualmente nesta área é o Microscópio de Tunelamento por Varredura (SMT), que permite a manipulação de átomos individualmente a partir das ondas de elétrons que provocam o efeito denominado na física de túnel quântico, o que na verdade não é possível visualizar o átomo, mas identificar a sua presença por scaneamento e mapeamento.
O princípio de funcionamento de um SMT pode ser comparado ao uso de uma bengala por deficientes visuais que notam ou percebem as variações de elevações e rebaixamentos nos pisos táteis de advertências pois, nos SMTs uma fina agulha percorre a base de um material que identifica a corrente de elétrons alí existente ao fazer o scaneamento da região, criando assim as pretuberâncias e depressões no material percorrido, enquanto um software 3D gera imagens coloridas a partir dos dados scaneados como informações ampliadas em 100 milhões de vezes.
Saiba mais. Veja a ilustração a seguir.
|
Fonte canaltech - mapeamento atômico recordista de maior resolução (Imagem: Reprodução/Cornell University) |
Veja
aqui um vídeo de como funciona um microscópio de tunelamento quântico (ative legenda em português nas configurações do vídeo se precisar) e o vídeo animado da IBM utilizando apenas átomos
aqui.
E é neste universo microscópico dos átomos que todo nosso trabalho de magnitude quântica acontece. E é sobre isso que vou começar discorrer a seguir. Vamos juntos?
2. A Mecânica ou Física Quântica.
Para compreender o universo quântico a ciência precisou de uma nova teoria física pois, no final do século XIX a física clássica sentia dificuldades para explicar alguns fenômenos da natureza como a radiação do corpo negro, o efeito fotoelétrico, as características ondulatórias do elétron em experimento da dupla fenda e foi a partir do início do século XX que o brilhantismo de algumas mentes científicas começou a dar luz para estas questões.
Inicialmente, em 1900,
Max Planck (físico alemão "23/04/1858-04/10/1947"), sugeriu que a energia de um sistema é uma grandeza de variável discreta (quantizada) e não uma grandeza de variável continua, ocorrendo portanto em pequenas porções de quanta (do latim, plural de quantum = pequena porção), hoje denominado de fóton.
Neste contexto, em 14/12/1900 Max Planck apresentou em uma reunião o seu artigo "Sobre a Teoria da Lei de Distribuição de Energia do Espectro Normal", dando início, mesmo contra vontade pois essa não era a sua intenção, à uma
revolução na física.
Assim como a Teoria da Relatividade é uma generalização da Física clássica ao apresentar a velocidade da luz como constante universal, estendendo as leis físicas para a região de grandes velocidades. A Física Quântica estende esse campo, também, às regiões de dimensões microscópicas e a constante de Planck caracteriza a física quântica.
O valor da constante de Planck é h = 6,62607015 . 10^-34 J.s que, convertida para eletro-volt vezes segundo (eV.s) corresponde a h = 4,13566743(35) x 10-15 eV . s ou aproximadamente 4,14 (motivo de escolha da data do dia quântico).
A constante de Planck é um valor usado para indicar a energia de um fóton (que é o quantum de energia, que daí originou a denominação da teoria), obtida pela equação E = h.v onde:
- E é a energia que se pretende obter;
- h é a constante de Planck, e;
- v é a frequência da radiação eletromagnética.
Essa foi a contribuição dada por Max Planck que recebeu o prêmio Nobel de Física em 1918.
Em 1905,
Albert Einstein (físico austríaco "14/03/1879-18/04/1955") explicou o fenômeno da emissão de elétrons sob uma superfície metálica bombardeada por um feixe de luz, denominado de efeito fotoelétrico. Para explicar o
efeito fotoelétrico Einstein utilizou a constante de Planck (h).
Em 1913, dois anos após
Ernest Rutherford (físico e químico neozelandês naturalizado britânico "30/08/1871-19/10/1937") ter criado o
modelo atômico que descrevia os elétrons circulando ao redor de um núcleo atômico de cargas positivas, mas que Maxwell alegava que dessa forma os elétrons criaria uma aceleração que emitiria luz e gradualmente perderia energia até se chocar com o núcleo,
Niels Borh (físico dinamarquês "07/10/1885-18/11/1962"), apresenta sua solução para este enigma onde os elétrons saltam de uma órbita a outra liberando ou absorvendo fótons de energia, satisfazendo assim as explicações sobre o aquecimento dos gases que, ganhando energia saltavam para uma órbita superior ou ao perder energia liberavam fótons recebidos. Essa
abordagem quantizada de Borh utiliza da constante de Planck (h).
Em 1924,
Louis de Broglie (físico francês "15/08/1892-19/03/1987"), baseado no efeito fotoelétrico de Einstein, formulou sua tese de doutorado com a hipótese de que toda matéria possui características tanto ondulatórias quanto corpusculares dependendo do experimento específico, que ficou conhecida como dualidade onda-partícula. A
dualidade onda-partícula de De Broglie utiliza da constante de Planck (h).
Em 1925,
Erwin Schrödinger (físico austríaco "12/08/1887-04/01/1961") contribuiu com a física quântica apresentando uma equação que descreve o tempo de evolução de uma função de onda ou função de estado de onda, análoga a segunda lei de Newton (F = m . a),
porém mais complexa que ficou conhecida como "equação de Schrödinger". Essa
equação de Schrödinger utiliza a constante de Planck (h).
Em 1927,
Werner Heisenberg (físico alemão "05/12/1901-01/02/1976") publicou o princípio da incerteza, que estabelece que é impossível medir simultaneamente a posição e a velocidade de uma partícula com precisão absoluta. O
princípio da incerteza de Heisenberg utiliza a constante de Planck (h).
Aqui você encontra um excelente artigo que resume, em detalhes, a física quântica.
2. A Matemática Quântica.
Juntamente com a física quântica que se estabelecia, o desenvolvimento da álgebra na virada do século XIX para o século XX foi paralelamente acompanhado com o grupo de Corpos, Ideais e Anéis transformando-se no principal objeto de pesquisa que passou a ser o estudo das estruturas básicas das operações matemáticas, com fundamentais contribuições de David Hilbert, Emmy Noether, Emil Artin, Van der Waerden e Steinitz adotando hoje a denominação de Álgebra Moderna ou Abstrata [2].
No final do século XIX,
David Hilbert (matemático alemão "23/01/1862-14/02/1943") criou o termo "Anel" para definir duas estruturas algébricas com duas operações binárias (+, .) de propriedades similares a dos inteiros. Um conceito originário da Teoria dos Anéis de polinômios e da Teoria dos Inteiros Algébricos por Dedekind, Kroneck e Kummer [2].
Em 1905,
Joseph Wedderburn (matemático escocês "02/02/1882-09/10/1948"), introduziu os números supercomplexos e álgebras finitas [2].
Em 1910,
Ernst Steinitz (matemático judaico "13/06/1971-29/09/1928") criou a Teoria Algébrica dos Corpos (motivado pelo trabalho de Kurt Hensel (matemático alemão "29/12/1861-01/06/1941") sobre corpos p-ádicos, dando a primeira definição abstrata de "Campo" como "sistema de elementos com duas operações" (+, .), satisfazendo as propriedades de tipo associativo, comutativo e distributivo [2].
Em 1914,
Adolf Fraenkel (matemático judeu "17/02/1891-15/10/1965") apresenta uma definição axiomática para Anéis [2].
Em 1921,
Emmy Noether (matemática alemã "23/03/1882-14/04/1935") publicou a Teoria Ideal em Anéis, no campo de anéis comutativos, pela universidade de Gottinhen, que apesar da resistência do círculo acadêmico em autorizar posição de ensino a uma mulher, foi vencida por reconhecimento da sua competência por ilustres matemáticos como Hilbert, Klein, Planck, Einstein e Weyl e ainda, foi convidada a integrar a equipe de Hilbert como assistente [2].
Em 1930,
Bartel Van der Waerden (matemático neerlandês "02/02/1903-12/01/1996") publicou a obra "Álgebra Moderna" em dois volumes baseado no trabalho de Emmy Noether, dando notoriedade à algebrista alemã. Antes, Van der Waerden pesquisou também como Geometria Algébrica, Topologia, Teoria das Probabilidades, Teoria dos Números, Geometria, Estatística, Mecânica Quântica, História da Matemática, da Física, Astronomia e Ciência Antiga [2].
Em 1927,
Emil Artin (matemático austríaco "03/03/1898-20/12/1962") notabilizou-se por resolver o problema de número 17 da famosa lista de Hilbert, mas sua maior contribuição foi nas teorias de Anéis, Grupos, Campos e no desenvolvimento da chamada Função-L. É autor da Teoria de Galois (1942), Anéis com Condição Mínima (1948), Álgebra Geométrica (1957) e Teoria dos Corpos de Classes (1961), este último juntamente com
Claude Chevalley (matemático francês "11/02/1909-28/06/1984") [2].
3. A Computação Quântica.
Na teoria da computabilidade a versão física da
tese de Church-Turing afirma que "cada sistema físico finitamente realizável pode ser perfeitamente simulado por uma
máquina de computação de modelo universal operando por meios finitos."
Em 1980,
Paul Benioff (físico quântico estadunidense "01/05/1930-29/03/2022") foi o primeiro a aplicar os princípios da física quântica na computação, teorizando sobre a criação de uma máquina de Turing Quântica
Em 1981,
Richard Feynman (físico teórico estadunidense "11/05/1918-15/02/1988") expressou em palavras memoráveis a expressão, "a natureza não é clássica, caramba, e se você quiser fazer uma simulação da natureza é melhor torná-la mecânica quântica. E, caramba, é um problema maravilhoso porque não parece tão fácil", transcrita da publicação da revista
Nature Physics Insight, uma série de artigos que analisa o progresso dos simuladores implementados até agora. a expressão de quem quer ou precisa falar sobre computação quântica.
Em 1985,
David Deutsche (físico israelense "18/05/1953") apresentou a primeira proposta de um circuito quântico fazendo uso do paralelismo quântico usando o recurso computacional da superposição quântica.
Em 1994,
Peter Shor (matemático estadunidense "14/08/1959") publica um artigo que ao mesmo tempo que impulsiona a computação quântica também faz preocupar a área da
segurança cibernética, ao propor um esquema de fatoração de grandes números com ganhos exponenciais de tempo, superando assim os computadores clássicos.
Em 1996,
Lov Grover (cientista da computação indiano"1961") criou o algoritmo quântico de busca e ordenação de banco de dados, ganhando assim enorme repercussão.
A partir da virada do século (2000-2001) a indústria começa a despontar maiores interesses na computação quântica de forma natural. Isto faz os investimentos nas pesquisas ficar cada vez mais atraentes e novas implementações começam a aparecer.
Não demora muito para que novas empresas e startups, além dos principais players das tecnologias, começarem a despontar e aparecer no campo da computação quântica no mundo todo, transformando o paradigma da computação quântica num verdadeiro circuito de acirradas disputas tentando atingir à tão almejada, porém depois, questionável, supremacia quântica.
Em 2012,
Jonh Preskill (professor e físico estadunidense "19/01/1953") propõe o termo "supremacia quântica" para "descrever o ponto em que os computadores quânticos podem fazer coisas que os computadores clássicos não podem, independentemente de essas tarefas serem úteis". E em 2019 PRESKILL ainda deixa claro em outro artigo na sua coluna na revista
Quanta Magazine de que "o recente artigo da
Google ilustra esse ponto". Um assunto que gerou muitos questionamentos e ainda hoje causa muitas dúvidas de inquietações na comunidade acadêmica e na indústria que, inclusive, na época mereceu até uma nota de contestação no blog da
IBM.
Hoje, se depender apenas do fluxo dos
investimentos na área, o paradigma da computação quântica está garantido por no mínimo dez anos (2020/2030) em continuidade de pesquisas e novos projetos. Enquanto isso a tecnologia da computação quântica vai definindo seus rumos multidisciplinares com inúmeros candidatos iniciais em muitos campos de atuação: na natureza e ambiente com a modelagem molecular, detalhes da sequência do DNA, simulações químicas para a indústria farmacêutica, novas energias renováveis, novos materiais em produtos de consumo, etc.; na otimização logísticas, nas rotas de transportes aeroespacial, marítimo, rodoviário, ferroviário, telecomunicações, etc.; o Aprendizado de Máquina (ML) com a Inteligência Artificial (AI), planejamento de cidades inteligentes, reconhecimento de padrões e outros; a área financeira, com as carteiras de clientes, análise de crédito e risco, investimentos nas bolsas, criptomoedas e ainda uma gama imensa e indescritível neste curto espaço.
5. Conclusão.
Se pensarmos em tudo o que até aqui eu descrevi desde o início deste artigo e analisar o que já foi possível à constante de Planck (h), só temos que admirar o quanto tudo isso também é incrível.
E foi assim que chegamos à era
NISQ (Noisy Intermediate-Scale Quantum) ou Quântico de Escala Intermediária Ruidosa (ou barulhenta conforme tradução em algumas literaturas). E agora? O que podemos esperar daqui para frente da computação quântica?
Nada. Pois, como vimos e conhecemos até aqui, da computação quântica não podemos esperar que algo ou alguma coisa simplesmente se revele por si, como que por encanto ou milagre diante dos nossos olhos, assim como acontece com os eventos da mecânica clássica, como por exemplo a prova da força da gravidade pela queda de uma maçã da árvore ou algum outro fenômeno físico não quântico qualquer.
Os efeitos fenomenais da mecânica quântica são imperceptíveis (invisíveis) a nós e por este motivo a computação a computação quântica é chamada de contraintuitiva, pois nossos sentidos não conseguem perceber devido a perda de coerência ou são colapsados neste nosso ambiente determinístico, além de possuírem algumas propriedades estranhas ao nosso entendimento como a sobreposição e o emaranhamento.
Então, uma segunda pergunta, talvez, seria mais apropriada como por exemplo: o que pode fazer um computador quântico? Ou, quais são os limites dos computadores quânticos?
Em 18/12/2020 o físico e professor da universidade de Granada, co-autor de um recente estudo sobre um método para criar Cristais do Tempo declarou em entrevista à
BBC News de que "as aplicações mais interessantes certamente são aquelas que ainda eu não as conheço".
No que diz respeito à parte lógica da computação quântica,
Dorit Aharonov, membro da comunidade de pesquisa em computação quântica desde 1990 e considerada uma das principais especialistas do mundo em algoritmos quânticos, diz que não podemos nos prender em questões gerais ou ficarmos buscando respostas generalizadas, "tenho certeza de que há muitas, muitas perguntas nas quais alguém original e criativo poderia pensar e nas quais ninguém mais está interessado" diz ela. "Então eu diria que invente as suas próprias perguntas. Pense nas perguntas, não apenas nas respostas. Quando se trata de computação quântica eu acredito que algumas das perguntas mais interessantes ainda não foram feitas."
Da minha parte, como programador e analista de computação, aprendi nesta minha já longa caminhada que a nossa missão é encontrar solução para os problemas, preferencialmente que seja uma solução eficiente, independentemente do problema que nos apresentam. Assim, só me resta atualizar um ditado que eu ouvia dos meus pais quando queriam me motivar para alguma atividade e diziam: "não esqueça que há sempre uma luz no final do túnel". Mas hoje, vivendo este magnífico, apesar de complexo, Universo Quântico o que eu posso afirmar é que sim, existem muitos fótons no final deste túnel quântico, existe muitos fótons no fim do tunelamento.
Muito obrigado e até breve.
Carlos Roberto Miranda
Programador e Analista de computação.
************
Algumas Referências
[1] Sobral, João Bosco Mangueira: Computação Quântica [recurso eletrônico]: aspectos físicos e matemáticos - uma abordagem Algébrica. 2019 - Série Pensamento Matemático @ Ciência da Computação - Projeto de Pesquisa Sigpex-UFSC 2016.11146 - Universidade do Oeste do Estado do Paraná - UNIOESTE https://repositorio.ufsc.br/handle/123456789/197576?show=full
[2] Pellegrini, Jerônimo C. - Álgebra Linear com Aplicações. ID:30d52134c91f7c64f89ae2df59fde8236e0b1b68 Edição: 2021.10.08.15.24
Comentários
Postar um comentário