El pasado 19 de febrero Microsoft hizo un anuncio sorprendente acerca de su nuevo chip de computación cuántica, Majorana 1. Según esa nota de prensa, parecía que había dado un salto impresionante en la investigación este tipo de computación y sin duda se ponía a la cabeza de manera destacada respecto a sus competidores. La verdad es que Microsoft había optado por una vía en la implementación de los qubits (así es como se llaman los bits de las computadoras cuánticas) que el resto de las empresas había abandonado por complicada, pues requería crear unas cuasipartículas denominadas de majorana y eso es algo que no se ha visto todavía en la naturaleza. Mucha gente que sigue de cerca la evolución de este tipo de tecnología recibió con entusiasmo la noticia y le dieron entusiasmado pábulo en las redes sociales, entre los que me incluyo. Tras un análisis más sosegado ya no estoy tan eufórico y creo que hace falta aclarar algunas cosas, pero antes de nada tendríamos que comenzar hablando de los fundamentos de este tipo de computación.
Los ordenadores cuánticos, actualmente en una fase muy primitiva de desarrollo, intentan aprovechar algunas características nada comunes de la física cuántica. El origen de esta disciplina científica se remonta a los primeros años del siglo XX, cuando el conocimiento del mundo natural nos llevó a estudiar incluso lo que había dentro de los átomos. Se encontró, de manera sorprendente, que las leyes físicas que regían esas escalas tan pequeñas tenían poco que ver con las que rigen nuestra vida diaria. Por ejemplo, en nuestro mundo, llamémosle macroscópico, es sencillo determinar la posición y velocidad de un objeto; si no, que le pregunten a todo aquel que haya recibido una multa de tráfico por exceso de velocidad. En cambio, en el mundo subatómico es imposible determinar a la vez la posición y velocidad de una partícula: es el denominado Principio de Incertidumbre de Heisenberg.
Trabajar con esas nuevas ecuaciones era muy dificultoso y nada intuitivo hasta que Erwin Schrödinger tuvo la genial idea de plasmar esas relaciones en una ecuación de onda"
Con el tiempo se fueron descubriendo nuevas partículas, además de los conocidos electrones o protones, y la relación entre ellas era tan extraña que hubo que desarrollar nueva matemática con la que manejar esas nuevas leyes físicas, la mecánica cuántica. El trabajar con esas nuevas ecuaciones era muy dificultoso y nada intuitivo hasta que Erwin Schrödinger tuvo la genial idea de plasmar esas relaciones en una ecuación de onda. Los físicos sí se sentían cómodos trabajando con ese tipo de ecuaciones, pues el estudio de las ondas venía desarrollándose desde hacía mucho tiempo y se tenía bastante dominio sobre el tema.
Aun así, el comportamiento de esas partículas no dejaba de extrañarles, unas veces se comportaban como ondas y otras como partículas, según el método de observación que se utilizase. Esa es una de las razones por las que nunca se podía estar seguro de la posición de la partícula, sólo de estaba seguro de la probabilidad de encontrarla en uno u otro lugar. Es como si intentásemos sacar una fotografía de algo y siempre saliese borrosa, la oscuridad del borrón nos podría dar una pista de aproximadamente donde podría estar esa cosa, pero no su posición exacta. Tal era la indeterminación y aleatoriedad de esas leyes en comparación con las de nuestro mundo macroscópico que de ahí viene la famosa frase de Einstein: “Dios no juega a los dados”.
Las fórmulas matemáticas que regían el mundo cuántico dieron lugar a que los científicos hicieran varias interpretaciones de la realidad y que se crearan corrientes de opinión. Sin ir más lejos, una de ellas establece que hasta que no se mide una propiedad cuántica, por ejemplo, el espín (algo parecido a un giro) de un electrón es imposible saber en el estado que está (o girando a la izquierda o a la derecha). Mucho más que eso, se afirma que está en los dos estados a la vez (superposición), y sólo cuando lo medimos se queda en el estado que lo observamos para siempre, por ejemplo, izquierda. A esto le llamaron colapso e indica en cierta manera que el aparato de medida influye de manera definitiva en el estado de lo medido.
- Representación visual de un ordenador cuántico -
- Foto: UAM/EP
Todo lo comentado hasta aquí desborda nuestra capacidad de entendimiento ya que no tiene paralelismo con nuestra experiencia diaria, pero si lo anterior es extraño, la propiedad cuántica del entrelazamiento se lleva la palma y esta es precisamente la base de la computación cuántica. Según esta propiedad, dos partículas entrelazadas no pueden definirse como individuales sino conjuntamente como un sistema. Con un ejemplo muy simplificado lo vemos más claro: si creamos dos electrones entrelazados uno girando haca la derecha y el otro girando hacia la izquierda y los separamos por cualquier distancia, que puede ser tan grande como queramos, podemos deducir el giro de uno midiendo el del otro. Dicho así parece obvio, pero es que, como he comentado antes, uno no puede conocer una magnitud cuántica hasta que no la mide. Antes de medir nuestro electrón, este estaba en un estado superpuesto, ¡girando a izquierda y derecha a la vez! Cuando lo medimos y fijamos su estado, por ejemplo, izquierda, sabemos que el otro electrón cuando lo midamos en el momento que sea estará girando a la derecha.
No parece algo complicado de entender, pero si hacemos el símil macroscópico nos explotará la cabeza. Ahí va: metamos en dos cajas dos monedas una con la cara hacia arriba y la otra con la cara hacia abajo. Si miramos una de las cajas y vemos cara evidentemente si abrimos la otra veremos cruz, pero si ahora empezamos a agitar esas cajas y las monedas empiezan a dar tumbos dentro, si ahora dejamos de agitar una caja y observamos cara, sabremos con seguridad que cuando paremos de agitar la otra caja y miremos dentro siempre habrá cruz, haya dado los tumbos que haya dado esa moneda. Esto es imposible según nuestra experiencia diaria, pero no en el mundo cuántico.
Una partícula de majorana, en honor al italiano Ettore Majorana, es aquella que es a la vez su propia antipartícula"
Esta propiedad permite a los ordenadores cuánticos hacer los cálculos a la vez, de una tacada. Si por ejemplo un ordenador clásico de 2 bits (0 y 1) tuviera que hacer una operación matemática probando números para hallar un resultado, primero probaría 00, si no halla el resultado probaría 01, después lo intentaría con 10 y finalmente con 11. Vemos que tendría que ejecutar cuatro pasos. Un ordenador cuántico de 2 qubits podría hacerlo todo de un sólo paso probando a la misma vez con 00, 01, 10 y 11, porque como he dicho antes los qubits, mientras no los midamos, están en un estado que es 0 y 1 a la vez.
El principal problema es mantener esos qbits en un estado entrelazado porque en cuanto “sienten” al mundo macroscópico se convierten en bits normales y pierden todas sus ventajas, es algo parecido a cuando medíamos el espín del electrón, al acercar el aparato de medida el mundo macroscópico interaccionaba con el cuántico y el espín quedaba fijado definitivamente girando a un lado o a otro. A este proceso se le llama decoherencia y una manera de retrasarlo lo máximo en el tiempo es enfriando los qubits a temperaturas de milésimas de grados Kelvin. Recordemos que llegar a cero grados Kelvin (0º K que equivalen a -273,15º C) es físicamente imposible y por eso se le llama cero absoluto. ¡Imaginad lo fríos que están los ordenadores cuánticos y aun así sólo logran evitar la decoherencia durante 100 microsegundos en el mejor de los casos! ¡Deben aprovechar ese poco tiempo para hacer todos los cálculos que puedan!
Existen diversos métodos para crear los qubits: el más popular es el de iones (partículas con carga) atrapados en campos electromagnéticos, otros se basan en circuitos de superconductores y los más populares por su sencillez teórica sería el utilizar fotones (luz láser). Pero los más prometedores debido a que permitirían tiempos largos de coherencia cuántica serían los qubits que aprovechan los defectos en las redes cristalinas de diamantes y, con los que empecé este artículo, los qubits topológicos que en el caso de Microsoft creaban cuasipartículas de majorana en unos nanocables hechos de material semiaislante y superconductor.
Microsoft va muy, muy retrasada respecto a sus competidores, pero es el camino que ellos han escogido"
Una partícula de majorana, en honor al italiano Ettore Majorana que hipotetizó con ellas hacia 1937, es aquella que es a la vez su propia antipartícula. De momento no se ha detectado ninguna, por eso el anuncio de Microsoft no sólo supone un importante avance en la computación cuántica, sino también en la física teórica y experimental. Lo cierto es que si uno se lee el artículo con detenimiento podrá comprobar que en realidad no han conseguido nada de lo que aparentan decir, tan solo muestran intenciones y proyecciones prometedoras de futuro. Existe gran cantidad científicos partidarios de sus trabajos, pero también muchos escépticos y detractores, de una forma u otra parece que habrá que esperar a pruebas mucho más contundentes.
Actualmente las principales empresas en el mundo de la computación cuántica como Google, IBM, Amazon AWS, Xanadu, Atom o ionQ utilizan los métodos de creación de qubits más conocidos y probados como el de iones atrapados, fotones o superconductores; sus equipos se encuentran actualmente en lo que denominaríamos fase de ingeniería, es decir, desarrollo de una máquina viable en todos los sentidos tanto técnico como económico. Microsoft está actualmente en la fase de estudio teórico, creando nueva física, por lo que va muy, muy retrasada respecto a sus competidores, pero es el camino que ellos han escogido. Si al final consiguen desarrollar un ordenador basado en esas cuasipartículas de Majorana darán un paso de gigante y podrán ver a su competencia por el retrovisor.