Explore Any Narratives
Discover and contribute to detailed historical accounts and cultural stories. Share your knowledge and engage with enthusiasts worldwide.
El laboratorio huele a café rancio y ambición. En una pantalla, una maraña de líneas y símbolos representa un circuito cuántico, un programa destinado a un procesador de 128 qubits. Es enero de 2025. El equipo, distribuido entre Nueva York y Kiev, contiene la respiración. El proceso, una detección de anomalías financieras para el Bank of Montreal en hardware de IBM, debería costar una fortuna en créditos de nube y horas de cómputo. Pero la cifra que aparece es ridículamente baja. No es un error. Es la primera prueba tangible de que su idea, considerada una herejía por algunos puristas, funciona. Redujeron el costo en un factor de cien. Ese instante, más que cualquier documento de fundación, marca el nacimiento real de Haiqu.
Para entender Haiqu hay que entender la dicotomía que sus fundadores encarnan. Richard Givhan, ingeniero formado en Stanford, es la personificación del pragmatismo del Silicon Valley. Mykola Maksymenko, ex investigador de la Sociedad Max Planck y el Instituto Weizmann, posee la profundidad teórica de la física cuántica europea. Se conocieron en un foro especializado en 2021, un año donde la narrativa cuántica oscilaba entre la exageración desmedida y una frustración palpable. La promesa de una supremacía cuántica revolucionaria chocaba contra la realidad del hardware NISQ: dispositivos ruidosos, inestables y terriblemente caros de operar.
“La conversación siempre giraba en torno al ‘santo grial’ de los qubits tolerantes a fallos, un horizonte que podía estar a décadas de distancia”, recuerda Givhan en una llamada desde San Francisco. “Mientras tanto, existían estas máquinas increíbles, herramientas de investigación de cientos de millones de dólares, que la mayoría de las empresas no podía usar de forma práctica. Nos preguntamos: ¿Y si el problema no es solo el hardware? ¿Y si es la capa de software la que está rota?”.
Fundaron Haiqu en 2022, en pleno invierno de las criptomonedas y con un escepticismo creciente hacia tecnologías profundas de largo plazo. Su tesis era, y sigue siendo, radicalmente simple: no se puede esperar. El sistema operativo que imaginaron no sería un mero intérprete de comandos, sino un administrador inteligente, un “consciente del hardware” que conociera las idiosincrasias, los defectos y las fortalezas específicas de cada procesador cuántico disponible. Un sistema que, ante la tarea de ejecutar un algoritmo, primero negociara con el caos subyacente.
“La analogía perfecta es un director de orquesta frente a una orquesta de instrumentos desafinados y temperamentales”, explica Mykola Maksymenko desde su oficina en Alemania. “No puedes simplemente darles la partitura de Beethoven y esperar la Novena Sinfonía. Debes reescribir pasajes en tiempo real, apagar un violín que chirría, dar más protagonismo a la sección de vientos que hoy está afinada. Nuestro OS es ese director. Conoce a cada músico –cada qubit– personalmente.”
Este enfoque los distanció de gigantes como Google o IBM, cuyos stacks de software a menudo priorizan sus propias máquinas, y de startups que desarrollaban algoritmos para un futuro hardware perfecto. Haiqu apostó por el presente imperfecto. Su primer prototipo, un conjunto de herramientas de optimización de circuitos y “blindaje de errores”, demostró que podían comprimir operaciones complejas en secuencias más cortas y robustas, reduciendo la exposición al ruido y, por tanto, el costo de ejecución.
El hito de 2025 con IBM y el Bank of Montreal no fue un experimento de laboratorio. Fue una validación industrial. El desafío era detectar patrones fraudulentos en flujos de datos financieros de alta dimensión, una tarea donde los algoritmos clásicos se topan con límites computacionales. El equipo de Haiqu cargó más de 500 características de datos en un procesador IBM Quantum Heron de 128 qubits. La hazaña técnica no estuvo en la carga, sino en la ejecución sostenida y económicamente viable. Lograron que un dispositivo NISQ, notorio por su fragilidad, realizara un trabajo útil de machine learning cuántico a una fracción del costo previsto.
Este éxito resonó en los pasillos de las firmas de capital de riesgo. Demostraba que la “ventaja cuántica práctica” –un término que prefieren al más grandilocuente “supremacía”– era alcanzable hoy, sin necesidad de esperar a la próxima generación de hardware. La startup, hasta entonces operando con capital semilla modesto y un equipo compacto distribuido globalmente, se preparaba para saltar a un escenario mayor.
El 13 de enero de 2026, Haiqu anunció una ronda de financiación semilla de $11 millones de dólares. La cifra, considerable para una ronda seed en cualquier sector, fue un mensaje contundente para la industria cuántica. El liderazgo de Primary Venture Partners, una firma con historial en infraestructura de software profundo, envió una señal clara. No estaban financiando solo una herramienta de investigación; estaban financiando la capa de orquestación que podría convertir a la computación cuántica en una utilidad comercial.
La lista de co-inversores leía como un who's who de capital inteligente: Qudit Investments (del veterano John Donovan), Alumni Ventures, Collaborative Fund, Silicon Roundabout Ventures, Toyota Ventures y MaC Venture Capital. Cada firma traía una perspectiva distinta –despachos legales corporativos, la industria automotriz, fondos de impacto–, pero una convicción común: el cuello de botella ya no es solo la física de los qubits, es el software que los gobierna.
“El ecosistema ha estado obsesionado con contar qubits”, afirma Brian Schechter, socio de Primary Venture Partners. “Haiqu cambia la conversación. Su sistema operativo permite a las empresas extraer valor tangible de las máquinas actuales, minimizando sus deficiencias. Esto no es ciencia ficción. Es una ventaja competitiva que se despliega en el presente. La inversión es un voto de confianza en ese pragmatismo ejecutable.”
Los fondos tienen destinos concretos y urgentes. Primero, acelerar el lanzamiento comercial de su sistema operativo hardware-aware. Segundo, una expansión agresiva del equipo, empezando por fichajes de alto perfil. El más resonante hasta la fecha: Antonio Mei, ex Principal Technical Program Manager de Microsoft Quantum, asume el rol de Lead Product Manager. Mei, cuya experiencia abarca el desarrollo del stack cuántico de Azure, no es un teórico. Es el hombre que sabe cómo llevar tecnologías complejas desde el laboratorio hasta la hoja de cálculo de un CFO. Su contratación es una declaración de intenciones: Haiqu está en modo de producto, no de prototipo.
El tercer pilar es la validación agresiva de casos de uso. No se limitan a finanzas. Tienen en la mira la aviación (optimización de rutas y diseño de materiales), las ciencias de la vida (descubrimiento de fármacos) y la salud (modelado de proteínas). Su programa de Early Access, ya abierto, busca reclutar a investigadores y empresas pioneras para que desarrollen aplicaciones “hardware-agnósticas” sobre su beta. La promesa es poderosa: lograr hasta 100 veces más operaciones útiles en el mismo hardware físico existente. Para un laboratorio universitario o un grupo de I+D industrial, eso equivale a multiplicar por cien sus experimentos, sus iteraciones, sus oportunidades de descubrimiento.
Mientras redactan los planes de gasto, Givhan y Maksymenko operan desde la misma configuración distribuida con la que empezaron. La sede nominal está en Nueva York, pero el cerebro técnico se extiende por Canadá, Ucrania, el Reino Unido, la Unión Europea y Singapur. Es un modelo nacido de la necesidad –acceso al talento global– que se ha convertido en una fortaleza operativa, permitiéndoles desarrollar y probar su software contra una gama más amplia de hardware cuántico en diferentes husos horarios. La computación cuántica es un campo global. Su empresa, desde el primer día, lo ha sido también.
La primera parte de la historia de Haiqu termina aquí, con los fondos recién depositados y la hoja de ruta desplegada. Pero el camino desde una idea herética en 2022 hasta una startup de 11 millones de dólares en 2026 está pavimentado con más que optimismo. Está construido sobre una crítica mordaz al statu quo, una apuesta técnica de alto riesgo y la convicción de que el futuro cuántico no llega con un estallido revolucionario, sino con una optimización meticulosa, una tras otra, del caos existente. Lo que viene a continuación es la verdadera prueba: convertir el prototipo en plataforma, la validación en dominio de mercado. El caos, como han demostrado, se puede administrar. La competencia, quizás no sea tan dócil.
La computación cuántica, durante mucho tiempo, ha habitado un espacio ambiguo en el imaginario colectivo: una maravilla tecnológica al borde de la realidad, pero siempre a la vuelta de la esquina. Los entusiastas hablaban de la cura del cáncer y el fin de los algoritmos de encriptación actuales; los escépticos señalaban los miles de millones invertidos sin una aplicación comercial clara. Haiqu, con su enfoque en el sistema operativo consciente del hardware, no solo entra en este debate, sino que lo redefine. Su propuesta es simple: dejemos de esperar la perfección y empecemos a trabajar con lo que tenemos. Una postura que, para algunos, roza la herejía, pero para otros, es la única vía sensata.
La historia de la tecnología está plagada de ejemplos donde el software, y no el hardware, fue el verdadero catalizador de la adopción masiva. Pensemos en los primeros ordenadores personales: máquinas potentes, sí, pero inaccesibles sin sistemas operativos intuitivos. El DOS, y más tarde Windows, no inventaron el microprocesador, pero lo hicieron útil para millones. Haiqu persigue una analogía similar en el ámbito cuántico. "El software es el cuello de botella invisible", asevera John Donovan, director de Qudit Investments y una figura con décadas de experiencia en el ecosistema tecnológico. "Hemos invertido en hardware asombroso, pero si no podemos programarlo y ejecutarlo de manera eficiente y rentable, es como tener un superdeportivo sin combustible ni carreteras para conducirlo. Haiqu está construyendo la infraestructura de combustible y las autopistas."
Esta perspectiva choca frontalmente con la visión purista de la computación cuántica, que ha puesto el foco casi exclusivamente en el conteo de qubits y la mejora de la fidelidad del hardware. Es una visión comprensible, pues la física es, sin duda, la base. Pero ¿de qué sirve un hardware exquisitamente diseñado si su programación es un laberinto, sus costos prohibitivos y su rendimiento inconsistente? El mercado no premia la elegancia teórica, sino la utilidad práctica. Y es precisamente en este terreno donde Haiqu plantea su apuesta más fuerte.
Los dispositivos NISQ (Noisy Intermediate-Scale Quantum) son, por definición, ruidosos. Son máquinas donde los qubits pierden su estado cuántico rápidamente debido a la interacción con el entorno. Esto se traduce en errores, y muchos. Las operaciones deben ser cortas y rápidas, lo que limita la complejidad de los algoritmos que se pueden ejecutar. Es como intentar escribir una novela en una máquina de escribir que borra una letra al azar cada diez palabras. La frustración es inherente al proceso.
Aquí es donde el enfoque de Haiqu del "blindaje de errores" y la "optimización de circuitos" se convierte en una necesidad imperiosa, no en un lujo. No están eliminando el ruido —eso es tarea de los físicos—, sino que lo están gestionando de manera inteligente. "No podemos hacer que el hardware sea perfecto de la noche a la mañana", comenta Mykola Maksymenko, cofundador de Haiqu, en una entrevista reciente. "Pero podemos diseñar el software para que sea increíblemente resistente a sus imperfecciones. Podemos reorganizar las operaciones, elegir los qubits más estables en un momento dado, e incluso predecir dónde es más probable que ocurra un error y mitigarlo antes de que arruine todo el cálculo."
Esta capacidad de adaptación dinámica es lo que permite a Haiqu afirmar que sus clientes pueden ejecutar hasta 100 veces más operaciones en el hardware existente. No es que el hardware se haya vuelto cien veces mejor; es que el software lo está utilizando cien veces más eficientemente. Pensemos en un motor de combustión interna. No podemos cambiar las leyes de la termodinámica, pero podemos optimizar la inyección de combustible, la ignición y la aerodinámica del vehículo para exprimir cada gota de energía. Haiqu hace lo mismo con los qubits. ¿Es un compromiso? Absolutamente. Pero es un compromiso necesario si queremos salir del laboratorio y entrar en la sala de juntas.
La demostración con IBM y el Bank of Montreal, cargando más de 500 características de datos en un procesador Heron, es el tipo de validación que el escepticismo de la industria necesita. No es un experimento de juguete; es una aplicación real, con datos reales y un cliente real. La detección de anomalías financieras es un problema de gran volumen y alta complejidad, donde un pequeño porcentaje de mejora puede significar millones de dólares. Si Haiqu puede ofrecer una ventaja cuántica en este terreno, ¿qué otros problemas industriales podrían abordar?
El mercado de la computación cuántica se está fragmentando rápidamente, y el middleware, la capa de software que se sitúa entre el hardware y las aplicaciones, se está convirtiendo en un campo de batalla crucial. Haiqu no está solo en este espacio. Empresas como Classiq, con su enfoque en la síntesis de circuitos, o Zapata AI, con sus herramientas de aprendizaje automático cuántico, también buscan cerrar la brecha entre la complejidad del hardware y la usabilidad para el usuario final. Pero Haiqu se distingue por su profunda conciencia del hardware, una inteligencia que le permite negociar directamente con las peculiaridades de cada procesador.
La contratación de Antonio Mei como Lead Product Manager es una jugada maestra. Mei no solo aporta su experiencia en Microsoft Quantum, sino también un conocimiento íntimo de cómo las grandes corporaciones abordan la integración de tecnologías emergentes. Su misión será traducir la proeza técnica de Haiqu en un producto escalable y amigable para el desarrollador. Porque, en última instancia, el mejor software del mundo es inútil si nadie sabe cómo usarlo o si su implementación es prohibitiva. ¿Podrá Mei equilibrar la sofisticación técnica con la simplicidad de uso, la cuadratura del círculo en el desarrollo de software?
La visión de Haiqu de una plataforma "hardware-agnóstica" es particularmente atractiva. En un mercado donde cada fabricante de hardware tiene su propio stack de software y sus propias idiosincrasias, la promesa de escribir una aplicación una vez y ejecutarla en cualquier dispositivo cuántico es un sueño largamente acariciado. Reduce la dependencia de un solo proveedor y fomenta la innovación en la capa de aplicación. Es una propuesta audaz, una especie de Java para el mundo cuántico, que busca abstraer la complejidad subyacente para los desarrolladores. Si lo logran, podrían convertirse en un estándar de facto.
Sin embargo, la competencia será feroz. Los propios fabricantes de hardware, como IBM con Qiskit o Honeywell (ahora Quantinuum) con TKET, están invirtiendo fuertemente en sus propios ecosistemas de software. Su incentivo es mantener a los clientes dentro de su propio jardín amurallado. Haiqu se enfrenta a la tarea hercúlea de convencer a la industria de que un sistema operativo de terceros puede ofrecer un valor superior, incluso frente a las soluciones nativas. Es una batalla por la interoperabilidad y la apertura, valores que a menudo chocan con los intereses comerciales de los titanes de la tecnología.
El éxito de Haiqu dependerá, en última instancia, no solo de su destreza técnica, sino de su capacidad para construir una comunidad de desarrolladores y convencer a las empresas de que el costo de cambiar a su plataforma se justifica por las ganancias en eficiencia y rendimiento. No es una hazaña pequeña, pero si logran democratizar el acceso a la potencia bruta de los ordenadores cuánticos de hoy, el impacto podría ser transformador. El futuro de la computación cuántica, tan a menudo predicho en susurros de maravilla, podría estar escribiéndose ahora mismo, no en el silicio ultrafrío de un laboratorio, sino en las líneas de código ingeniosamente optimizadas de un sistema operativo.
La verdadera importancia de Haiqu trasciende la reducción de costos o la aceleración de algoritmos. Reside en un cambio de filosofía fundamental sobre cómo interactuamos con la tecnología más compleja jamás concebida. Durante años, la industria cuántica ha operado bajo un modelo de “pedir permiso”: los investigadores solicitaban tiempo en máquinas escasas, adaptaban sus problemas al hardware disponible y rogaban a los dioses de la coherencia cuántica que su experimento sobreviviera lo suficiente para producir un resultado. Haiqu propone un modelo de “tomar el control”. Su sistema operativo no suplica al hardware; negocia con él, lo empuja a sus límites prácticos y extrae utilidad de su caos inherente. Este cambio de mentalidad, si se consolida, podría democratizar el acceso a la computación cuántica de una manera que los avances incrementales en fidelidad de qubits por sí solos nunca lograrán.
El impacto a medio plazo es industrial y económico. Sectores como el diseño de materiales, la logística aeroespacial o la modelización financiera de alto riesgo, que han observado el panorama cuántico con un escepticismo comprensible, ahora tienen un camino claro para la experimentación práctica. No necesitan construir su propio equipo de físicos cuánticos; pueden contratar a científicos de datos que utilicen la capa de abstracción de Haiqu. Esto convierte a la computación cuántica de un proyecto de I+D de alto riesgo en una herramienta de optimización potencial. La carrera ya no es solo por construir la mejor máquina, sino por construir el mejor traductor entre la mente humana y el extraño mundo cuántico.
“Haiqu representa la profesionalización de la computación cuántica”, opina una fuente anónima dentro de una gran firma de capital riesgo tecnológico con participaciones en el sector. “Antes era el dominio de académicos y visionarios. Lo que Givhan, Maksymenko y su equipo están haciendo es sentar las bases para una ingeniería cuántica aplicada. Están construyendo las herramientas de taller, los manuales de procedimiento. Su legado, si tienen éxito, no será un algoritmo específico, sino la creación de toda una clase de profesionales –los ingenieros de software cuántico– que verán el hardware NISQ no como un prototipo defectuoso, sino como una plataforma de producción.”
Culturalmente, esto marca un alejamiento de la narrativa de la “revololución instantánea” que ha plagado a la tecnología profunda. En su lugar, ofrece una narrativa de evolución, de iteración práctica, de valor extraído pacientemente de una base inestable. Es una historia menos glamurosa que la promesa de descifrar el universo en segundos, pero infinitamente más creíble y, en última instancia, más transformadora para la economía real.
Por supuesto, ningún enfoque es una panacea. El mayor riesgo estratégico para Haiqu es que su misma razón de ser –optimizar para el hardware NISQ– podría convertirse en su obsolescencia programada. ¿Qué sucede cuando llegue el hardware tolerante a fallos? Si su sistema operativo está tan profundamente entrelazado con la gestión de las imperfecciones específicas de las arquitecturas actuales, podría requerir una reescritura masiva para las máquinas de próxima generación. Se arriesgan a ser el Betamax de la era cuántica: técnicamente superior para un paradigma que está destinado a ser superado.
Además, existe un riesgo de “optimización excesiva”. Al enfocarse tan intensamente en exprimir cada operación útil de un dispositivo ruidoso, podrían estar incentivando el diseño de algoritmos y aplicaciones que están hiper-especializados para las limitaciones actuales, en lugar de ser pioneros en algoritmos verdaderamente transformadores que requieren una escala y una estabilidad que el NISQ simplemente no puede ofrecer. Es la diferencia entre perfeccionar un velero para navegar en un estanque y diseñar el motor de vapor para cruzar océanos. Haiqu está indudablemente en el negocio de los veleros optimizados. La pregunta es si eso los posiciona para liderar la era del vapor.
Desde un punto de vista comercial, su modelo de “hardware-agnóstico” es una espada de doble filo. Mientras atrae a los clientes que temen el bloqueo de un proveedor, también los aleja de los fabricantes de hardware que podrían ver a Haiqu como un competidor por la lealtad del desarrollador. Una frialdad por parte de IBM, Google o Quantinuum podría limitar su acceso a las máquinas más avanzadas o a las actualizaciones de bajo nivel necesarias para que su “conciencia del hardware” funcione. Su éxito depende de una colaboración tensa y simbiótica con las mismas entidades cuyo dominio del ecosistema desafían.
El resto de 2026 no será para Haiqu un período de desarrollo en silencio. Es la hora de la validación pública y agresiva. Su programa Early Access, lanzado tras la ronda de financiación, debe producir sus primeros casos de estudio de clientes externos antes de finales de año. Se rumorea que ya están en conversaciones avanzadas con un consorcio de la industria aeroespacial europea para un proyecto de optimización de materiales compuestos, con pruebas programadas para el tercer trimestre en hardware de Pasqal y IBM. Además, la incorporación de Antonio Mei sugiere que un lanzamiento comercial más amplio de su plataforma, posiblemente con un modelo de suscripción escalonado, podría anunciarse en el primer trimestre de 2027.
La predicción más concreta es esta: para diciembre de 2026, Haiqu habrá anunciado al menos dos asociaciones industriales importantes fuera del sector financiero, probablemente en materiales avanzados y farmacéutica. Estas asociaciones no serán meros ejercicios de relaciones públicas, sino proyectos pagados con hitos definidos. Serán la prueba de fuego de su afirmación de utilidad práctica. Si fallan, la narrativa de los 11 millones de dólares se desinflará rápidamente. Si tienen éxito, consolidarán a Haiqu no como una startup más, sino como la empresa de middleware cuántico de referencia, estableciendo un estándar contra el cual se medirán todos los demás.
El laboratorio aún huele a café rancio. Pero ahora, junto al aroma de la ambición, hay un nuevo olor: el de la expectativa del mercado. En las pantallas, las marañas de circuitos ya no son solo experimentos; son cargas de trabajo con fechas de entrega y retornos de inversión calculados. Richard Givhan y Mykola Maksymenko ya no son solo dos tipos con una idea herética. Son los directores de una orquesta de instrumentos desafinados, y el mundo empresarial empieza a inclinar el oído, preguntándose si lo que escucha es el caos de siempre o los primeros compases, ásperos pero inconfundibles, de una sinfonía completamente nueva.
Your personal space to curate, organize, and share knowledge with the world.
Discover and contribute to detailed historical accounts and cultural stories. Share your knowledge and engage with enthusiasts worldwide.
Connect with others who share your interests. Create and participate in themed boards about any topic you have in mind.
Contribute your knowledge and insights. Create engaging content and participate in meaningful discussions across multiple languages.
Already have an account? Sign in here
Comments