Intel ha superado un hito clave al correr junto a Google e IBM en la maratón para crear sistemas de computación cuántica. El gigante de la tecnología ha desvelado un chip de prueba cuántico superconductor con 49 qubits: suficientes qubits para permitir posiblemente la computación cuántica que comienza a superar los límites prácticos de las computadoras clásicas modernas.

El anuncio de Intel sobre el diseño y la fabricación de su nuevo chip cuántico superconductor de 49 bits, Tangle Lake, de nombre en código, se produjo durante un discurso pronunciado por Brian Krzanich, director ejecutivo de Intel, durante el CES de 2018, una feria anual de electrónica de consumo celebrada en Las Vegas. Es un hito que los investigadores de Google e IBM también han estado buscando porque podría marcar el inicio del momento de la supremacía cuántica, cuando la computación cuántica puede superar a la computación clásica.

Pero Michael Mayberry, vicepresidente corporativo y director general de Intel Labs, eligió describir la supremacía cuántica en diferentes términos. Alrededor de 50 qubits es un lugar interesante desde el punto de vista científico, porque has llegado al punto en el que no puedes predecir o simular completamente el comportamiento cuántico del chip “, dice.

Este nuevo anuncio pone a Intel en buena compañía en lo que respecta a la maratón de computación cuántica. Investigadores de IBM anunciaron que habían construido un prototipo de chip cuántico de 50 qubits en noviembre de 2017. Del mismo modo, Google habló anteriormente sobre sus ambiciones de lograr un chip cuántico superconductor de 49 bits antes de finales del año pasado.

Todavía va a ser un largo camino antes de que alguien se dé cuenta de la promesa comercial de la computación cuántica, que aprovecha la idea de bits (qubits) cuánticos que pueden representar más de un estado de información al mismo tiempo. La hoja de ruta de Intel sugiere que los investigadores podrían lograr sistemas de 1.000 bits en un plazo de 5 a 7 años. Eso suena como mucho hasta que usted se da cuenta de que muchos expertos creen que las computadoras cuánticas necesitarán por lo menos un millón de qubits para llegar a ser útiles desde un punto de vista comercial.

arrays más grandes de qubits

Pero la computación cuántica práctica también requiere mucho más que nunca – arrays más grandes de qubits. Un paso importante consiste en implementar la corrección de errores de “código de superficie” que puede detectar y corregir las interrupciones en los frágiles estados cuánticos de los qubits individuales. Otro paso consiste en determinar cómo asignar algoritmos de software al hardware de computación cuántica. Un tercer aspecto crucial es la ingeniería de la disposición electrónica local necesaria para controlar los resultados individuales y leer los resultados de la computación cuántica.

Intel's 49-qubit superconducting quantum test chip, Tangle Lake.
El nuevo chip de prueba cuántica superconductor de 49 bits de Intel se llama Tangle Lake.

El chip Tangle Lake de 49-qubit se basa en el trabajo anterior del gigante tecnológico con matrices de 17-qubit que tienen el número mínimo de qubits necesarios para realizar la corrección de errores de código de superficie. Intel también ha desarrollado empaquetado para evitar la interferencia de radiofrecuencia con las qubits, y utiliza la llamada tecnología flip chip que permite conexiones más pequeñas y densas para activar y desactivar las señales de los chips. Estamos concentrados en un sistema, no simplemente en un mayor número de qubit “, explica Mayberry.

La arquitectura qubit superconductora incluye bucles de metal superconductor que requieren temperaturas extremadamente frías de unos 20 millikelvin (-273 grados C).

Una “meta de extensión” de Intel es aumentar esas temperaturas operativas en sistemas futuros. En general, Intel ha estado protegiendo sus apuestas sobre las diferentes vías posibles que podrían conducir a la informática cuántica práctica. El gigante de la tecnología se ha asociado con QuTech y muchas otras compañías más pequeñas para construir y probar diferentes configuraciones de hardware o software para computación cuántica. La compañía también ha dividido uniformemente su inversión en computación cuántica entre la arquitectura de qubit superconductora y otra arquitectura basada en qubits spin en silicio.

Tales qubits del espín son generalmente más pequeños que los qubits superconductores y podrían ser fabricados potencialmente en maneras similares a cómo Intel y otros fabricantes de chips fabrican transistores de ordenador convencionales. Esto se traduce en una ventaja potencialmente grande para escalar hasta miles o millones de qubits, incluso si el desarrollo en qubits superconductores es generalmente superior al de los qubits spin. En este último frente, Intel ya ha descubierto cómo fabricar qubits de espín basados en los procesos utilizados para fabricar sus obleas de silicio de 300 mm.

Además de la computación cuántica, Intel ha hecho progresos constantes en el desarrollo de la computación neuromórfica, cuyo objetivo es imitar el funcionamiento de los cerebros biológicos. Durante la charla del CES en 2018, Krzanich, CEO de Intel, proporcionó una actualización sobre Loihi, el chip de investigación neuromórfica de la compañía que fue presentado por primera vez en octubre de 2017. Dichos chips podrían proporcionar la contraparte de hardware especializada para los algoritmos de aprendizaje profundo que han dominado la investigación moderna de la IA.

La afirmación de Loihi de la fama implica combinar el aprendizaje profundo de entrenamiento y la inferencia en el chip para supuestamente lograr cálculos más rápidos con una mayor eficiencia energética, dice Mayberry. Eso podría ser un gran problema porque los algoritmos de aprendizaje profundo típicamente toman un tiempo para entrenarse en nuevos conjuntos de datos y hacer nuevas inferencias del proceso.

Los investigadores de Intel han estado probando recientemente el chip Loihi entrenándolo en tareas como reconocer un pequeño conjunto de objetos en cuestión de segundos. La compañía aún no ha llevado las capacidades del chip neuromórfico al límite, dice Mayberry. Aún así, anticipa que los productos de computación neuromórfica podrían llegar al mercado en un plazo de 2 a 4 años, si los clientes pueden ejecutar sus aplicaciones en el chip Loihi sin necesidad de realizar modificaciones de hardware adicionales.

Ni la computación cuántica ni neuromórfica van a reemplazar a la computación de propósito general “, dice Mayberry. “Pero ellos pueden mejorarlo.”

Fuente: Spectrum

Compartir