
La computación cuántica se ha convertido en uno de los campos más apasionantes y, a la vez, polémicos de la tecnología moderna. Durante décadas, científicos e ingenieros han perseguido la posibilidad de explotar las propiedades únicas de la mecánica cuántica –superposición, entrelazamiento e interferencia– para construir máquinas capaces de resolver problemas que son inabordables para los ordenadores actuales. Hoy, empresas como Microsoft, Google e IBM lideran lo que se ha descrito como una carrera hacia el “ordenador cuántico práctico”. Sin embargo, en paralelo al entusiasmo, persiste el escepticismo entre la comunidad científica debido a los desafíos técnicos, las afirmaciones prematuras y la incertidumbre respecto a cuándo –y si– se lograrán aplicaciones comerciales robustas.
En esta entrada analizamos en profundidad las estrategias de los principales candidatos, comparando sus fortalezas y debilidades, para evaluar si el “hype” que rodea a la computación cuántica está justificado o si, por el contrario, se trata de unas expectativas exageradas por las empresas involucradas que aún están lejos de cumplirse.
Tabla de contenidos
- 1 Contexto general de la computación cuántica
- 2 Microsoft: La estrategia de los cúbits topológicos y el chip Majorana 1
- 3 Google: La estrategia de Willow y la optimización en la corrección de errores
- 4 IBM: Integración y ecosistema en la computación cuántica
- 5 Otros actores y perspectivas en computación cuántica
- 6 Comparación de los diferentes enfoques para abordar la computación cuántica
- 7 Evaluación del posible Hype en la computación cuántica
- 8 Perspectivas futuras
- 9 Conclusiones
Contexto general de la computación cuántica
La computación cuántica se fundamenta en la utilización de unidades de información denominadas cúbits (o qubits). A diferencia de los bits clásicos, que solo pueden estar en uno de dos estados (0 o 1), un cúbit puede existir en una superposición de ambos estados simultáneamente. Este fenómeno permite que, en teoría, un conjunto de cúbits pueda representar y procesar una cantidad exponencial de información en paralelo.
Los principales desafíos para construir ordenadores cuánticos prácticos son la decoherencia (la tendencia de los estados cuánticos a perder su coherencia por interacción con el entorno) y la corrección de errores, que es fundamental dada la sensibilidad extrema de los cúbits. En la práctica, la viabilidad de una computadora cuántica dependerá de poder construir sistemas escalables, pasar de unos pocos cúbits actuales a miles, con una tasa de error lo suficientemente baja, de modo que los algoritmos cuánticos puedan ejecutarse de forma precisa y con una alta fiabilidad.
Hoy en día, varias empresas y centros de investigación han desarrollado prototipos experimentales que demuestran avances significativos, aunque la mayoría de las aplicaciones reales aún se encuentran en un estado experimental o de “prueba de concepto”. En este contexto, las grandes compañías han adoptado estrategias diferentes para abordar estos desafíos. A continuación, se presentan los enfoques de Microsoft, Google e IBM.
Microsoft: La estrategia de los cúbits topológicos y el chip Majorana 1
Microsoft ha apostado por una de las aproximaciones más ambiciosas y, a la vez, controvertidas en la computación cuántica: el uso de cúbits topológicos. Su dispositivo, conocido como Majorana 1, se basa en la hipótesis de que los llamados modos cero de Majorana pueden usarse para construir cúbits intrínsecamente más robustos. Los cúbits topológicos se fundamentan en propiedades de la materia que van más allá de los tres estados clásicos (sólido, líquido y gaseoso); en su lugar, se exploran fases exóticas de la materia “topológicos” que, en teoría, son resistentes a pequeñas perturbaciones y errores debido a su naturaleza global y no local.
La tecnología y el enfoque
El chip Majorana 1 es un dispositivo híbrido fabricado mediante la combinación de arseniuro de indio y aluminio. Esta combinación se utiliza para crear lo que Microsoft denomina un “núcleo topológico”, un ”nuevo estado de la materia” que podría permitir la formación de cúbits que requieren menos corrección de errores en comparación con otros enfoques. La idea es que, al tener cúbits más estables, se requerirá una sobrecarga de corrección de errores mucho menor –en base a proyecciones teóricas se estima posiblemente solo 10 cúbits físicos por cada cúbit lógico, aunque no es un resultado confirmado– lo que facilita la escalabilidad a gran escala (con la ambición de alcanzar, en el futuro, chips con hasta 1 millón de cúbits).
Ventajas y desafíos
Las ventajas que ofrece la aproximación de Microsoft son:
- Estabilidad mejorada: La gran ventaja de los cúbits topológicos es que, en teoría, son menos sensibles a las perturbaciones externas y al ruido ambiental, lo que reduce la tasa de error.
- Potencial escalabilidad: Al requerir menos cúbits físicos para formar un cúbit lógico estable, el enfoque topológico podría permitir la construcción de ordenadores cuánticos más grandes y eficientes.
- Innovación a largo plazo: Microsoft ha invertido casi dos décadas en esta línea de investigación, lo que evidencia un compromiso a largo plazo y un enfoque estratégico que busca superar los retos inherentes a la tecnología cuántica.
A pesar de sus ventajas, el enfoque de Microsoft necesita abordar los siguientes desafíos:
- Evidencia experimental preliminar: Aunque los informes publicados, por ejemplo en Nature y presentados en reuniones científicas, muestran indicios de actividad topológica (con un 95% de probabilidad según los datos de Microsoft), muchos científicos consideran que la evidencia sigue siendo preliminar. Expertos como algunos entrevistados por Business Insider y The Wall Street Journal mantienen una postura cautelosa y piden más datos y reproducibilidad.
- Complejidad en la fabricación: La fabricación de dispositivos a escala atómica, “pulverizando” los materiales átomo por átomo para conseguir una alineación perfecta, es un proceso extremadamente complejo y costoso.
- Historial de retractaciones: Microsoft y otros grupos han enfrentado casos en los que avances prometedores en la búsqueda de Majorana han sido cuestionados o incluso retractados, lo que genera escepticismo sobre la viabilidad inmediata de este enfoque.
Conclusión sobre la estrategia de Microsoft
La estrategia de Microsoft es, sin duda, ambiciosa y apunta a resolver algunos de los mayores cuellos de botella de la computación cuántica. Si bien la robustez teórica de los cúbits topológicos es muy atractiva, la comunidad científica sigue esperando evidencias más concluyentes que demuestren que este enfoque puede escalar y funcionar de forma práctica. El entusiasmo en torno a Majorana 1 es justificado por el potencial disruptivo, pero también es necesario adoptar una postura prudente y esperar a que los experimentos confirmen la viabilidad de los cúbits topológicos.

Google: La estrategia de Willow y la optimización en la corrección de errores
Google ha optado por un enfoque basado en la mejora de los dispositivos superconductores convencionales, enfocándose en la corrección de errores y la robustez operativa. Su chip cuántico, denominado Willow, es el último avance anunciado por el grupo Google Quantum AI. A diferencia de la estrategia topológica de Microsoft, Willow se centra en la optimización de la tecnología de cúbits superconductores tradicionales, ampliando la capacidad operativa y reduciendo la incidencia de errores a medida que se incrementa el número de cúbits.
Características de Willow
Willow se destaca por utilizar 105 cúbits y por presentar una innovadora mejora en los tiempos de superposición que han permitido que el sistema opere de forma mucho más prolongada sin perder coherencia. Uno de los aspectos más impactantes es el hecho de que Willow ha podido ejecutar una prueba de muestreo aleatorio de circuitos (Random Circuit Sampling, RCS) en tan solo cinco minutos. Para ponerlo en perspectiva, se ha estimado que un superordenador clásico tardaría alrededor de 10 cuatrillones de años en resolver el mismo problema.
Ventajas y desafíos
Las ventajas que ofrece el enfoque de Google son:
- Excepcional rendimiento: La demostración de RCS de Willow es, sin duda, impresionante. Resolver un problema en cinco minutos que un ordenador clásico resolvería en un tiempo inimaginable ilustra el potencial del paralelismo cuántico.
- Mejora en la corrección de errores: Google ha centrado esfuerzos en contrarrestar la decoherencia y optimizar la corrección de errores, un aspecto clave para que los cúbits sean útiles en cálculos prácticos. Según los informes, el sistema se vuelve “más cuántico” a medida que se añaden más cúbits, algo inédito en versiones anteriores.
- Ecosistema de investigación y desarrollo: Google invierte fuertemente en investigación y colabora con instituciones académicas y de investigación de todo el mundo. La publicación de los avances en revistas de alto impacto como Nature respalda, al menos en parte, la validez del enfoque.
A pesar de sus ventajas, el enfoque de Google con Willow también debe afrontar importantes desafíos:
- Aplicaciones prácticas limitadas: Aunque Willow es un avance monumental en términos de capacidad de procesamiento, la mayoría de las tareas realizadas aún son experimentales. Algo esperable en el estado actual de la tecnología. El benchmark RCS, si bien es un excelente indicador de capacidad, no se puede traducir directamente en aplicaciones comerciales inmediatas.
- Sensibilidad a perturbaciones: Como en cualquier sistema cuántico basado en cúbits superconductores, el manejo de la decoherencia y del ruido sigue siendo un reto. La mejora en los tiempos de coherencia ha sido un paso adelante, pero se requiere una integración adicional para que estos sistemas puedan operar de forma consistente en aplicaciones reales.
- Competencia tecnológica: Si bien Google ha logrado avances notables, debe competir con otros gigantes tecnológicos (como Microsoft e IBM) que también invierten fuertemente en sus propias estrategias cuánticas. Esta carrera implica no solo avances de hardware, sino también el desarrollo de software y algoritmos cuánticos que puedan aprovechar estas nuevas capacidades.
Conclusión sobre la estrategia de google
El enfoque de Google con Willow se centra en demostrar el poder bruto de la computación cuántica a través de avances en la corrección de errores y la mejora de la estabilidad de los cúbits superconductores. La demostración de su capacidad de procesamiento es un indicativo de su enorme potencial, pero, al igual que con Microsoft, persisten dudas sobre cuándo estos avances se traducirán en aplicaciones útiles y sea comercialmente viable. La estrategia de Google es optimista y se apoya en mejoras incrementales que, en conjunto, podrían acercar la computación cuántica en un futuro no tan lejano.
IBM: Integración y ecosistema en la computación cuántica
IBM es uno de los pioneros en la computación cuántica y ha adoptado un enfoque integral que no se limita únicamente al hardware. Por ejemplo, presentando en 2019 el primer ordenador cuántico comercial o el primer procesador cuántico de 127 cúbits en 2021. La estrategia de IBM se basa en la creación de un ecosistema cuántico a través de su IBM Quantum Network, que incluye centros de datos cuánticos, procesadores avanzados y una plataforma de software de código abierto llamada Qiskit. Recientemente, IBM inauguró su primer centro de datos cuánticos en Europa, en Ehningen (Alemania), lo que marcó un hito importante en la expansión global de esta tecnología
Características de la estrategia de IBM
IBM utiliza una variedad de chips cuánticos, entre los que se destacan los procesadores Eagle y Heron. Estos dispositivos se han diseñado para operar con más de 100 cúbits y cuentan con sistemas avanzados de corrección de errores y enfriamiento. La infraestructura del centro cuántico en Europa no solo proporciona acceso a estos chips, sino que también integra capacidades de interconexión y de computación híbrida, combinando recursos cuánticos con potentes sistemas clásicos.
Además, IBM ha apostado por la accesibilidad y la democratización de la computación cuántica mediante el lanzamiento de la plataforma IBM Quantum Experience, que permite a investigadores, desarrolladores y empresas experimentar con algoritmos cuánticos a través de la nube.
Ventajas y desafíos
El enfoque de IBM para acercarse a la computación cuántica es uno de los más avanzados, entre sus ventajas se encuentra:
- Infraestructura global y colaborativa: IBM no solo invierte en hardware, sino que también ha desarrollado un ecosistema robusto que involucra centros de datos en múltiples regiones. Esto favorece la colaboración entre la industria, las universidades y el sector público.
- Software abierto y desarrollo de algoritmos: La plataforma Qiskit facilita el desarrollo de algoritmos cuánticos y la formación de una comunidad activa de desarrolladores, lo que puede acelerar la transición de la teoría a aplicaciones prácticas.
- Aplicaciones en diversos sectores: Con clientes en áreas como la ciencia de materiales, la biotecnología, la transición energética y las finanzas, IBM muestra un enfoque muy diversificado. La colaboración con empresas como Moderna para el desarrollo de terapias resalta el potencial de computación cuántica en nuevas aplicaciones disruptivas.
- Avances en corrección de errores y escalabilidad: Los dispositivos como el Heron han mostrado mejoras en la tasa de error y en la estabilidad, aspectos críticos para la viabilidad de la computación cuántica a gran escala.
A pesar de ser uno de los enfoques más avanzados, la propuesta de IBM también tiene que hacer frente a múltiples desafíos:
- Complejidad en la integración de sistemas: Combinar hardware cuántico con sistemas clásicos en una infraestructura distribuida es un reto enorme. Algo que es necesario para muchas aplicaciones como Quantum k-Means. Aunque IBM ha avanzado significativamente, lograr una integración fluida y sin cuellos de botella, esta es una tarea en curso que presenta múltiples desafíos.
- Competitividad del sector: Aunque IBM cuenta con una sólida trayectoria, la competencia con otros gigantes (como Microsoft y Google) es feroz. Cada uno tiene enfoques distintos, y la presión para demostrar ventajas concretas en aplicaciones reales es alta.
- Tiempos de maduración: Al igual que en los otros casos, muchas de las aplicaciones de la computación cuántica aún están en fase experimental. El camino hacia una “supremacía cuántica” –donde los sistemas cuánticos realicen tareas que superen ampliamente a los clásicos en un entorno comercial– sigue estando lejos y plagado de importantes desafíos técnicos.
Conclusión sobre la estrategia de IBM
La estrategia de IBM se distingue por su enfoque holístico, que combina hardware, software y una infraestructura colaborativa global. Si bien el reto de integrar y escalar estos sistemas es enorme, la apuesta de IBM por la computación cuántica es muy realista y basada en la construcción de un ecosistema que permita un uso progresivo de la tecnología. Su enfoque menos “romántico” y más pragmático –apoyado en años de experiencia en la computación cuántica– le confiere credibilidad, aunque, como en los otros casos, aún falta tiempo para ver aplicaciones prácticas a gran escala.

Otros actores y perspectivas en computación cuántica
Además de los gigantes tecnológicos, también existen startups que están apostando por la computación cuántica. Empresas como Atom Computing y PsiQuantum están explorando diferentes enfoques alternativos:
- Atom Computing se centra en el uso de átomos neutros para formar cúbits, buscando aprovechar la estabilidad inherente de estos sistemas.
- PsiQuantum, por su parte, apuesta por el uso de fotones y tecnologías ópticas para construir un ordenador cuántico escalable.
Si bien estos actores tienen menos recursos que los grandes conglomerados, su capacidad para innovar y probar nuevos métodos es crucial para diversificar el campo y para descubrir enfoques que, eventualmente, podrían complementar o incluso superar a las estrategias de los gigantes.
Comparación de los diferentes enfoques para abordar la computación cuántica
Cada uno de los enfoques expuestos en esta entrada presentan sus propias ventajas y desafíos:
- Microsoft apuesta por la innovación disruptiva mediante cúbits topológicos, buscando la estabilidad a través de una nueva forma de materia. Su estrategia tiene el potencial de reducir la sobrecarga de corrección de errores, pero depende de la reproducibilidad y robustez de evidencias experimentales aún en fase incipiente.
- Google se centra en la optimización de la corrección de errores en dispositivos superconductores. Su chip Willow ha demostrado un rendimiento espectacular con algunos benchmarks, lo que indica un progreso sustancial en la mejora de la coherencia cuántica. Sin embargo, su enfoque, aunque prometedor en términos de capacidad de procesamiento, aún debe traducirse en aplicaciones prácticas que sean comercialmente viables.
- IBM persigue un enfoque integral, combinando hardware de última generación con una infraestructura global y un ecosistema de software abierto. Su estrategia es probablemente la más madura desde el punto de vista operativo, pero la complejidad de integrar sistemas cuánticos con tecnologías clásicas y garantizar la escalabilidad sigue siendo un desafío considerable.
- Startups cómo Atom Computing y PsiQuantum, aunque aún en etapas más tempranas, aportan diversidad al campo. Su enfoque puede complementar los avances de los gigantes, pero su impacto a gran escala dependerá en gran medida de la capacidad para atraer inversión y lograr avances significativos en la robustez y escalabilidad de sus dispositivos.
Evaluación del posible Hype en la computación cuántica
El “hype” o entusiasmo en torno a la computación cuántica tiene varias dimensiones que se deben tener en cuenta a la hora de analizarlo:
- Potencial disruptivo: La computación cuántica promete revolucionar áreas tan diversas como la criptografía, la simulación de sistemas complejos, el descubrimiento de nuevos fármacos, la optimización de procesos industriales y la inteligencia artificial. Esta promesa de poder resolver problemas intratables con las computadoras clásicas es, sin duda, un motor del entusiasmo actual.
- Inversión y competencia: La carrera entre gigantes como Microsoft, Google e IBM ha llevado a inversiones multimillonarias en investigación y desarrollo, lo que ha contribuido a un ambiente de alta expectación. Los anuncios de avances –a menudo presentados en revistas de prestigio como Nature– generan titulares en la prensa convencional que a veces pueden parecer exagerados o prematuros.
- Realidad técnica frente a las expectativas comerciales: A pesar de los avances en laboratorio, muchos de los resultados actuales siguen siendo solamente demostraciones experimentales. La transición de estos prototipos a aplicaciones comerciales robustas requiere superar desafíos críticos como la decoherencia, la corrección de errores y la escalabilidad. En este sentido, el hype puede deberse a una mezcla de potencial real y expectativas que aún no se han materializado por completo.
El entusiasmo está justificado o es una exageración
Para evaluar si el entusiasmo (o hype) es justificado es necesario analizar tanto la madurez de la tecnología como la viabilidad de sus aplicaciones. Entre las razones que pueden justificar el entusiasmo se encuentran;
- La enorme capacidad de procesamiento demostrada por dispositivos como Willow, que ha resuelto benchmarks que están fuera del alcance de los superordenadores clásicos, indica que la computación cuántica está avanzando a pasos agigantados.
- Las estrategias de IBM para integrar sistemas cuánticos en centros de datos y fomentar un ecosistema de software y colaboración son señales de un enfoque pragmático que podría acelerar la transición a aplicaciones prácticas.
- La inversión y el compromiso a largo plazo de actores como Microsoft, que han apostado por enfoques innovadores como los cúbits topológicos, demuestran que el potencial disruptivo es real y merece ser explorado a fondo.
A pesar de estos motivos, no hay que olvidar la existencia de una cierta exageración o expectativas algo prematuras sobre la computación cuántica:
- La evidencia experimental, especialmente en el caso de Microsoft con Majorana 1, aún es objeto de debate y revisión. Los resultados preliminares deben ser reproducidos y verificados de forma independiente para confirmar que los cúbits topológicos pueden realmente superar los desafíos de la corrección de errores y la escalabilidad.
- La mayoría de los avances demostrados (como el benchmark de RCS de Willow) son, en gran medida, pruebas de concepto. La traducción de estos logros a aplicaciones comerciales útiles –ya sea en la simulación de sistemas complejos o en la criptografía– podría tardar aún décadas.
- En el ámbito de la inversión, el entusiasmo excesivo puede llevar a expectativas desmesuradas que, si no se cumplen en los plazos anunciados, podrían resultar en una “burbuja” tecnológica similar a otros episodios históricos en el sector tecnológico. Recordemos, por ejemplo, lo que paso con los dos inviernos de la IA.
Conclusiones sobre el entusiasmo en computación cuántica
En definitiva, el entusiasmo que rodea a la computación cuántica está parcialmente justificado por el potencial transformador de la tecnología y por los avances reales que se han logrado en laboratorio. Sin embargo, es fundamental adoptar una perspectiva equilibrada: mientras que las demostraciones experimentales son impresionantes, el camino hacia un ordenador cuántico de utilidad general aún está lleno de desafíos técnicos. La “supremacía cuántica” puede ser tan disruptiva como se anuncia, pero también es cierto que las expectativas deben moderarse hasta que se logren avances reproducibles y aplicaciones prácticas a gran escala.
Perspectivas futuras
La computación cuántica se encuentra en una fase crucial de transición. Los avances experimentales de los últimos años, impulsados por empresas tecnológicas de primer orden, han demostrado que la mecánica cuántica puede ser explotada para crear dispositivos de procesamiento con capacidades sin precedentes. Sin embargo, el salto desde los prototipos de laboratorio hasta sistemas comercialmente viables requiere superar barreras significativas en términos de estabilidad, corrección de errores y escalabilidad. Entre las perspectivas de esta tecnología se encuentran:
- Maduración tecnológica: A medida que se perfeccionen las técnicas de corrección de errores y se desarrollen nuevos materiales y arquitecturas (ya sean cúbits topológicos, superconductores mejorados o tecnologías basadas en átomos neutros y fotónica), es posible que veamos la aparición de sistemas cuánticos que puedan competir en tareas específicas con los ordenadores clásicos. La integración de estos sistemas en centros de datos y su acceso a través de la nube, como promueve IBM, es una vía que probablemente acelerará la adopción en áreas de alta complejidad.
- Aplicaciones específicas: Aunque hoy en día muchos de los avances se centran en pruebas de concepto, sectores como la criptografía, el descubrimiento de fármacos, la simulación de reacciones químicas y la optimización logística tienen el potencial de beneficiarse enormemente de la computación cuántica. Las colaboraciones entre empresas tecnológicas y sectores industriales –por ejemplo, la alianza de IBM con Moderna– son un indicativo de que, en el futuro, la tecnología cuántica podría resolver problemas que actualmente se consideran intratables.
- Diversidad de enfoques: La existencia de múltiples estrategias –desde los cúbits topológicos de Microsoft hasta los dispositivos superconductores de Google y la infraestructura integral de IBM– es saludable para el campo. Esta diversidad aumenta las probabilidades de que, al menos, uno de estos enfoques logre superar los retos técnicos. Además, las startups emergentes como Atom Computing y PsiQuantum pueden aportar soluciones disruptivas o complementar las estrategias de los gigantes tecnológicos.
- Impacto en la economía y la sociedad: El potencial de la computación cuántica va más allá de la tecnología en sí misma. Su impacto en la seguridad de datos, la inteligencia artificial, la simulación científica y la optimización de procesos industriales podría traducirse en un crecimiento exponencial en sectores clave de la economía. Sin embargo, este potencial también viene acompañado de riesgos éticos, de seguridad y de desigualdad que deben ser gestionados mediante políticas y regulaciones adecuadas.
Conclusiones
La computación cuántica representa uno de los mayores retos y, a la vez, una de las oportunidades más fascinantes de la tecnología moderna. Los avances recientes de Microsoft, Google e IBM son prueba del enorme interés y de las posibilidades de ser una tecnología disruptiva en el futuro. No obstante, cada estrategia presenta sus propias ventajas y desafíos:
- Microsoft apuesta por una solución innovadora mediante cúbits topológicos, la cual promete reducir la sobrecarga en la corrección de errores y ofrecer una mayor estabilidad. Sin embargo, la evidencia experimental aún es preliminar y el enfoque requiere una verificación exhaustiva.
- Google ha demostrado, con su chip Willow, que es posible alcanzar niveles de procesamiento extraordinarios mediante la optimización de dispositivos superconductores y técnicas avanzadas de corrección de errores. Su enfoque es espectacular en términos de rendimiento, aunque las aplicaciones prácticas aún deben materializarse.
- IBM ofrece una estrategia holística basada en la creación de un ecosistema global de computación cuántica, integrando hardware avanzado con software abierto y centros de datos distribuidos. Su enfoque pragmático y colaborativo podría facilitar la transición hacia aplicaciones reales, pero la integración de sistemas y la escalabilidad siguen siendo desafíos significativos.
En conclusión, las expectativas (o hype) en torno a la computación cuántica está parcialmente justificado por el potencial revolucionario de la tecnología y los avances experimentales que se han logrado. Sin embargo, es crucial mantener una perspectiva realista y reconocer que, aunque el futuro cuántico promete transformar sectores enteros, el camino hacia las aplicaciones práctica de estos sistemas aún es largo y lleno de enormes desafíos técnicos. La combinación de enfoques diversos y el continuo esfuerzo en investigación e innovación serán la clave para que la computación cuántica deje de ser solo una fascinante demostración de posibilidades para convertirse en una herramienta transformadora en la vida real.
Nota: Las imágenes de este artículo fueron generadas utilizando un modelo de inteligencia artificial.
Deja una respuesta