Observatorio de Bioética, UCV

Ordenador cuántico, la revolución anunciada

 Última hora

Informes / Límites de la ciencia / BIOÉTICA PRESS

Ordenador cuántico, la revolución anunciada
21 diciembre
14:42 2020

Hace 100 años se desvela el mundo cuántico

Hace ahora 100 años una generación de físicos con una gran talla científica se enfrentaba a un reto formidable: desvelar el comportamiento de la materia en sus niveles más elementales. Desarrollaron una nueva física a la que denominaron cuántica debido a que las magnitudes fundamentales de la materia están “cuantizadas”, es decir, no pueden tomar cualquier valor, sino que están constituidas en paquetes llamados “cuantos”.

La tarea fue ardua, ya que el comportamiento de la materia en los niveles cuánticos no guarda ningún paralelismo con la forma en la que interactúa en los niveles macroscópicos que perciben nuestros sentidos, manifestando un comportamiento contraintuitivo que llevó a James Trefil a afirmar: “En la mecánica cuántica hemos encontrado una región del universo donde el cerebro humano simplemente no puede sentirse cómodo”.[1]

Entre las muchas características en que se diferencia la física cuántica del comportamiento newtoniano del mundo macroscópico vamos a fijarnos en cuatro que tienen relevancia en el tema que nos ocupa:

  • La superposición cuántica es un principio fundamental de la mecánica cuántica por el que un sistema físico tal como un electrón, existe en parte en todos sus estados teóricamente posibles de forma simultánea, pero, cuando se mide, da un resultado que corresponde a solo una de las posibles configuraciones.
  • Todas las propiedades de los sistemas cuánticos están sometidos a interferencias como ocurre en general con las ondas (ello está de acuerdo con la definición como ecuaciones de onda de todos los estados físicos de un sistema cuántico).
  • Llamamos entrelazamiento cuántico a determinadas correlaciones entre los resultados de medidas en sistemas en los que intervienen más de una partícula. El cambio de estado de una de partícula entrelazada determina el estado de las otras sin que intervenga la distancia a la que se encuentren.
  • La decoherencia es el fenómeno que explica cómo un sistema físico, bajo ciertas condiciones específicas, deja de exhibir efectos cuánticos y pasa a exhibir un comportamiento típicamente clásico.

Cien años después, se busca cómo obtener provecho de sus extrañas propiedades

En mayo de 1981, el físico Richard Feynman, en el discurso de apertura del Instituto Tecnológico de California, planteó por vez primera el desarrollo de un ordenador cuántico. En principio lo proponía como una ayuda para simular mejor los sistemas cuánticos, ya que entendía que los ordenadores clásicos los simulaban con dificultad y un ordenador que funcionase según la física cuántica sería la solución.[2]

La idea se ha demostrado muy difícil de llevar a la práctica, pero las perspectivas son enormemente interesantes y por ello se están desarrollando grandes esfuerzos en hacerla realidad. Cien años después de que la ciencia desvelara las esotéricas características de las partículas elementales, la comunidad científica y tecnológica –apoyada por el poder económico– está volcada en obtener una utilización práctica de esas difusas propiedades.

Cómo trabaja un ordenador

Los sistemas informáticos se basan en una capacidad fundamental para almacenar y manipular información: realizan operaciones lógicas utilizando la posición definida de un estado físico. Suelen ser binarios, lo que significa que sus operaciones se basan en una de dos posiciones. Un solo estado, como encendido o apagado, arriba o abajo, 1 o 0, se denomina bit y constituye la unidad mínima de información.

Un ordenador es como una larga fila de posiciones (bits), que pueden adoptar valores 0 o 1 y un lector móvil que puede modificar esos valores. Físicamente los bits son circuitos electrónicos y los cambios de valor se producen por transformaciones de los campos eléctricos.

Qué es un ordenador cuántico

Una computadora cuántica trabaja con partículas y aprovecha las asombrosas leyes de la mecánica cuántica para procesar información. Mientras que en un ordenador clásico se trabaja con bits (como ya se ha dicho, posiciones 1 o 0 producidas por circuitos electrónicos), en la computación cuántica se utiliza el cambio de estado cuántico de propiedades de partículas, tales como el spin de un electrón o la polarización de un fotón, para producir lo que se conoce como cúbit (del inglés qubit, contracción de quantum bit), la unidad mínima de información. El cúbit es un sistema cuántico que codifica el cero y el uno en dos estados cuánticos distinguibles y que, además, debido al fenómeno de superposición, puede tomar los valores 0, 1 o una combinación de ambos simultáneamente. De esta propiedad se deriva la enorme ventaja de este tipo de máquinas: la cantidad de información que contiene un estado concreto tiene tamaño 2n, y no n, como en los ordenadores clásicos, lo que significa que la potencia de estos ordenadores crece exponencialmente con el incremento de cúbits, mientras que la de los ordenadores clásicos crece linealmente.

Pero, además, en un sistema de más de un cúbit, los componentes individuales generalmente no son independientes entre sí, sino que pueden estar entrelazados. El entrelazamiento es una propiedad profundamente íntima entre las partículas cuánticas que las une perfectamente en una existencia compartida, con independencia de su distancia. Los cúbits entrelazados se afectan entre sí instantáneamente cuando se miden; cuando se mide uno de los cúbits en un sistema entrelazado de dos cúbits, por ejemplo, el resultado, ya sea que vea un 0 o un 1, le dice inmediatamente lo que verá cuando mida el otro cúbit. Entrelazamiento significa que al describir un sistema de varios cúbits no se debe tener en cuenta solamente el encadenamiento de las descripciones de los cúbits individuales, sino todas las correlaciones entre diferentes cúbits. El número de correlaciones crece exponencialmente con el número de cúbits. En términos de computación clásica, esto equivaldría a tener una puerta lógica que conectase cada bit en la memoria con cada uno de los demás bits.

Esto se traduce en lo siguiente: si le pide a una computadora normal que encuentre la manera de salir de un laberinto, intentará uno por uno todos los caminos hasta encontrar el correcto, mientras que la computadora cuántica puede recorrer todos los caminos del laberinto a la vez.[3]

Un algoritmo cuántico puede tomar cúbits entrelazados en superposición como entrada, pero la salida también es un estado cuántico que cambiará tan pronto como se intente observarlo. El arte de la computación cuántica es encontrar formas de obtener tanta información como sea posible de lo inobservable.[4]

Por qué es difícil construir computadoras cuánticas

Existen un montón de razones por las que los computadores cuánticos se están desarrollando tan lentamente. Los sistemas cuánticos, constituidos por átomos o partículas de menor tamaño, son muy difíciles de controlar, ya que son extremadamente pequeños y resultan muy difíciles de introducir en el hardware. Pero el verdadero problema deriva del fenómeno de la decoherencia cuántica, por el que los cúbits sólo son estables (es decir, conservan la coherencia) durante muy poco tiempo, pasado el cual se pierde la superposición y el entrelazamiento produciendo errores. Estos no son evitables incluso trabajando a temperaturas extremadamente bajas cercanas al cero absoluto (que es el estado de mínima energía y en el cual no podría haber cambios).

Los errores aumentan exponencialmente con el número de cúbits. Cuantos más cúbits hay, más frágil es su interacción y más impreciso es el resultado. Aumentar la potencia de cálculo, sin embargo, requiere un mayor número de cúbits. Y para corregir estos errores, se requiere una gran sobrecarga de cálculos auxiliares, que a su vez reduce dramáticamente la capacidad útil; la sobrecarga requerida para ordenadores de gran capacidad será, posiblemente, del orden de 1000 cúbits de corrección de errores para cada cúbit de cálculo.

Aparte de tratar de mantener las propiedades cuánticas el mayor tiempo posible, hay que crear la capacidad de manipular y observar el sistema para que ejecute lo que se pretende.

¿Maratón o sprint?

Científicos e ingenieros confían en superar los obstáculos que hoy por hoy existen, a pesar de la opinión negativa de algunos científicos —como el matemático Gil Kalai— que afirman que la decoherencia representa una barrera intrínseca que impedirá el desarrollo de computadores cuánticos eficientes.[5]

Esa confianza parece haberse reforzado en los últimos cinco años, como lo prueba la aceleración de proyectos privados con inversiones millonarias financiados por grandes compañías: Google, IBM o Microsoft entre otras. En ese sentido, se ha definido el concepto de supremacía cuántica, que se corresponde con el hecho de que un ordenador cuántico sea más rápido que un ordenador clásico cuando ambos se enfrenten a la resolución de un mismo problema. Hace un año Google confirmó haber alcanzado este hito con su ordenador de 53 cúbits superconductores, al que los científicos le asignaron la tarea profundamente artificial de verificar la aleatoriedad de una secuencia de números. Fue refrendado por el equipo investigador con la publicación en la revista Nature de un artículo en el que se explicaba que “este experimento marca el primer cálculo que sólo se puede realizar en un procesador cuántico. Los procesadores cuánticos han alcanzado así el régimen de supremacía cuántica”[6] y en el que también afirmaban que  lo que la computadora cuántica resuelve en tres minutos y 20 segundos mantendría ocupada a la supercomputadora más poderosa del mundo en el Oak Ridge National Lab en Tennessee durante 10,000 años. En respuesta a esta afirmación los investigadores de IBM argumentaron que con una adecuada programación  la supercomputadora Oak Ridge podría resolver el problema de la aleatoriedad en 2,5 días, quizás menos.

En todo caso es un logro importante aunque alcanzar la supremacía cuántica no significa que las computadoras cuánticas estén realmente listas para hacer algo útil y todavía tendremos que esperar un tiempo antes de que estas computadoras puedan hacer todo lo que prometen.

Pero lo que sí parece haber conseguido este logro es espolear la competencia entre los diferentes consorcios que participan en esta carrera. Alguien ha dicho que esto no es un sprint sino una maratón, pero en estos momentos da la impresión de que estamos viviendo lo primero.

Justo un año después del anuncio de Google, el pasado septiembre IBM concretó sus aspiraciones anunciando una ambiciosa hoja de ruta[7]. Mientras que las máquinas actuales contienen unas pocas decenas de cúbits, se prevé, en el plazo de 3 años, construir una que contenga 1000 cúbits. Este tipo de máquina sería todavía demasiado pequeño para conseguir los objetivos que la computación cuántica se ha propuesto, pero sería el tamaño a partir del cual se podrían acometer tareas tales como simulación de reacciones químicas. El objetivo final de esta carrera sería una potencia 1000 veces mayor y esto se confía en alcanzarlo en 2030, coincidiendo en esta previsión con su competidora Google.

El futuro, ya no tan lejano

Durante 20 años, los científicos e ingenieros han venido diciendo que “algún día” construirán una computadora cuántica en toda regla capaz de realizar cálculos útiles que superarían a cualquier supercomputadora convencional. Si se alcanza el hito de los 1000 cúbits en 2023 suena menos fantástico el llegar al ordenador de 1 millón de cúbits en 2030 y ésta sí sería la meta esperada.

Hay que dejar claro que ello no supondrá una superación total de la computación clásica, sobrepasando ampliamente la eficiencia en todos los terrenos. El verdadero cambio de paradigma no consiste en hacer lo mismo que hacen las computadoras digitales, pero más rápido, sino que los algoritmos cuánticos permiten realizar ciertas operaciones de una manera totalmente diferente que en muchos casos resulta ser más eficiente. Muchos problemas prácticamente intratables actualmente pasarán a ser tratables.

Puede ser ilustrativo el caso de la Inteligencia Artificial y el aprendizaje automático que, a medida que se van desarrollando, necesitan más y más capacidad informática y donde las limitaciones al desarrollo de la potencia de procesamiento ya está empezando a ralentizar su progreso hasta el punto de que Jerome Presenti, director de IA en Facebook, ha dicho que está a punto de “chocar contra la pared”.[8] La IA se basa en el principio de aprender de la experiencia, volviéndose más precisa en la medida en que se produce la retroalimentación al calcular las probabilidades de muchas opciones posibles, por lo que la computación cuántica se adapta de forma natural a esta forma de actuar.

Lo que cabe esperar, por tanto, es un notable desarrollo en determinadas áreas. Además de la IA, que podría transformar el aprendizaje automático en todas las industrias, podemos destacar otras tres:

  • La simulación cuántica, que permitirá modelar moléculas complejas con aplicaciones en la industria química, farmacéutica o nuevos materiales.
  • La optimización de problemas multivariables a gran velocidad, que permitirá una mejora de las estrategias y la eficiencia en las finanzas.
  • La factorización primaria, que revolucionará la criptografía y afectará a la seguridad de todo tipo de comunicaciones y transacciones, como por ejemplo a la seguridad nacional de los países, ya que la mayor parte de la seguridad en línea depende actualmente de la dificultad de factorizar grandes números en primos.

En un reciente informe, con el expresivo título La próxima revolución tecnológica: computación cuántica[9] la consultora McKinsey & Company prevé para dentro de diez años un valor añadido de un billón de dólares en cinco sectores: financiero, químico, farmacéutico, TMT y automoción, como consecuencia de una revolución de procesos con importante incidencia en la fuerza laboral.

La revolución que hace cien años protagonizaron los físicos cuánticos no tuvo en aquel momento una gran repercusión en la sociedad, la segunda revolución cuántica sí que está llamada a tener un gran impacto en nuestras vidas.

Congreso Solvay 1927
Considerada la fotografía más importante de la historia de la ciencia en el siglo XX reúne a la élite científica de la época; 17 de los presentes fueron Premio Nobel.    Planck, Einstein, Bohr, Heisenberg,  Schrödinger, De Broglie, Dirac… son los verdaderos revolucionarios que desvelaron los secretos de la materia en su nivel más elemental.

 

 

 

[1] University of California, San Diego, Physics 1C Lecture 28C

[2] (PDF) RICHARD FEYNMAN: SIMULATING PHYSICS WITH COMPUTERS, Michael Demmer, Rodrigo L C Fonseca, Farinaz Koushanfar, enero 2008

[3] Amit Katwala, Quantum computing and quantum supremacy, explained | WIRED UK

[4] Marianne Freiberger, How does quantum computing work?, 01/10/2015

[5] Gil Kalai, [1908.02499] The Argument against Quantum Computers 07/08/2019

[6] John M. Martinis et al., Quantum supremacy using a programmable superconducting processor, 23/10/2019

[7] Jay Gambetta, IBM’s Roadmap For Scaling Quantum Technology, 15/09/2020

[8] Will Knight, Facebook’s Head of AI Says the Field Will Soon ‘Hit the Wall’, 12/04/2019

[9] Eric Hazan et al., The next tech revolution: quantum computing, marzo 2020 McKinsey & Company

 

Manuel Ribes

Observatorio de Bioética

Instituto Ciencias de la Vida

Universidad Católica de Valencia

Ordenador cuántico, la revolución anunciada
Relevancia
Temáticas
Compartir

Acerca del autor

OBSERVATORIO DE BIOETICA UCV

Artículos relacionados

0 comentarios

Escribe un comentario

Su email no será publicado.
Los campos requeridos están marcados *