Entrevista en Empresa XXI a Enrique Lizaso, cofundador y CEO de Multiverse Computing

Jun 6, 2025

“Utilizamos la cuántica para democratizar la IA”

Multiverse Computing favorece el uso de los sistemas de inteligencia artificial entre las empresas “a través de una herramienta de compresión que reduce al límite su tamaño, abaratando en un 50% la factura de uso y permitiendo su utilización sin conexión a la nube”, según explica Erique Lizaso, cofundador y CEO de la compañía.

Utilizamos herramientas inspiradas en la cuántica para comprimir los modelos de lenguaje grandes (LLM) de IA, como ChatGPT, Anthropic, etcétera. ¿Por qué es importante comprimirlos? Porque el coste de hacerlos funcionar se reduce a la mitad, a la cuarta parte o, incluso, menos, y entonces salen mucho más baratos. Igual te suena esa historia de que los modelos de lenguaje consumen mucha electricidad, de que estamos poniendo Data Centers porque tampoco hay capacidad de cómputo… y que, en cambio, todo el mundo utiliza el ChatGPT y estas cosas. Todo eso es cierto. Entonces, lo que hace Multiverse al comprimirlos es reducir esos consumos de electricidad y esos costes. Esto está basado en las técnicas cuánticas que hemos desarrollado y patentado durante los últimos cinco años, desde que montamos la empresa en 2019. Es la única compañía a nivel mundial que está aplicando todo este tipo de tecnologías cuánticas y consiguiendo reducir tanto esos modelos, manteniendo, además, la precisión de los mismos.

De lo que nosotros hacemos hay dos cosas que podemos vender. Podemos vender la herramienta, denominada ‘CompactifAI’, para que la gente comprima los modelos, o podemos comprimir los modelos y venderlos comprimidos. El negocio para nosotros está en comprimir un modelo una vez y venderlo muchas veces. Comprimimos modelos extraordinariamente grandes como el de la familia Llama 4 que ha lanzado Meta, o DeepSeek, el modelo chino. Pero también tenemos modelos muy pequeños. Modelos que cabrían en el tamaño de la sinapsis del cerebro de la mosca de la fruta. Estos modelos excepcionalmente pequeños saben hablar, razonan un poquito y son capaces de funcionar desde el móvil o desde procesadores muy pequeños. En el futuro podrán funcionar desde la nevera, la lavadora o desde drones. Estos modelos extraordinariamente pequeños los entregamos a las empresas. Se les envían y ellas los instalan. A los grandes, por su parte, se podrá acceder directamente en los próximos días a través de uno de los ‘marketplaces’ más populares y demandados del mercado.

Podemos crear modelos de lenguaje y, de hecho, alguna vez hemos desarrollado alguno pequeñito, aunque no los hacemos porque hacer un modelo desde cero es muy caro. En cambio, comprimir los modelos de Open Access, que están abiertos al público y son los que las empresas quieren utilizar, es mucho más fácil. Son conocidos y ya funcionan, el único problema que tienen es que son demasiado caros. De todas formas, si en el futuro Europa quedara aislada por efecto de barreras tecnológicas tenemos esa capacidad de crear modelos desde cero.

Los principales son ChatGPT, de OpenAI; Anthropic, que tiene inversión de Amazon; y Llama, de Meta, la más utilizada aparte de OpenAI. Todos, de EE.UU. En Europa, está la empresa francesa Mistral. Y luego, en China, están DeepSeek y Kwen.

Estos modelos, que son los que utiliza la gente, son gratuitos, de código abierto. Los puedes coger de los principales proveedores de nube y descargártelos. Descargarlos es gratis, pero al ejecutarlos estás consumiendo recursos del proveedore de nube, y eso es lo que es extremadamente caro. Principalmente, para las grandes compañías, que los despliegan en todas las oficinas o para todos los usuarios a través de un modelo centralizado. En este caso, la factura de la nube por el uso es tremenda. Nosotros los comprimimos y los ponemos en esos proveedores de nube. Son mucho más baratos y nos llevamos una parte de esos ingresos.

No. Los modelos que comprimimos nosotros son ‘Open Source’, lo que significa que tú puedes coger ese modelo y utilizarlo.

A través de la compresión podemos reducir esos modelos hasta el punto en que se pueden desplegar directamente en dispositivos, de forma que ya no necesi9tas una conexión a la nube para conectarte a ChatGPT. En el caso de los micromodelos, que, por ejemplo, se instalan en vehículos para aplicaciones de control o en drones para funciones de vigilancia, resulta fundamental porque desliga su funcionamiento de posibles fallos de conexión. En el caso de los modelos más grandes, que las empresas aplican al desarrollo de su actividad, la compresión los reduce hasta permitir su despliegue en el local. Esto es clave para clientes como administraciones, defensa, salud o finanzas, que por cuestiones de privacidad y seguridad de datos necesitan que funcionen sin conexión a la nube.

Ciertamente. Los democratizamos a base de hacerlos más baratos. Esto que, a veces, también se clasifica como computación verde o algoritmos verdes, para nosotros significa hacerlos más económicos. Estamos consumiendo menos energía y eso se traduce de forma inmediata en menor precio. Las empresas suelen entender este tipo de computación verde muy bien.

Fue una cosa bastante curiosa que nos pasó cuando trabajábamos con soluciones puramente cuánticas, para ordenadores cuánticos. Esta compresión corre en ordenadores tradicionales. Estábamos con un proyecto para la empresa de automoción Bosch para mejorar una solución de IA que tenían en una planta. Era un sistema de detección de piezas defectuosas que querían que funcionara sin conexión porque la línea de montaje avanza y no te puedes permitir un retraso en las comunicaciones. Así que desarrollamos una serie de técnicas para hacer el modelo más pequeño y que pudiera funcionar en local. En 2024 nos preguntamos si podríamos aplicar esa técnica de compresión a los modelos de lenguaje, cuyo uso está muy en boga, pero que presenta un problema de consumo y de coste muy gordo. Lo intentamos y funcionó muy bien. Tras ver que había interés entre los clientes en estos modelos comprimidos por el tema del ahorro, decidimos lanzarlo masivamente al mercado y empezamos a hablar con los grandes proveedores de nube.

Tiene varias partes. La primera es lo que se denomina ‘profiling’. Miramos el modelo y lo convertimos a un esquema muy específico que viene de la cuántica y que se fija en cómo está distribuida la información dentro del modelo y cómo se correlacionan sus diferentes partes. Sirve para determinar qué partes del modelo puedes quitar. Luego viene la compresión en sí misma, que es muy rápida porque ya has hecho el análisis en el ‘profiling’. Ahí lo único que tienes que hacer es recortar. La más costosa es el ‘healing’ o curado, que consiste en la rehabilitación del modelo después de la compresión. Es un entrenamiento ligero que recupera todas sus funciones. Puede durar desde un día hasta varias semanas.

Sí. Todas las técnicas vienen de la cuántica: análisis, compresión y reentrenado. En cuántica haces programas para ordenadores cuánticos o bien para ordenadores normales inspirados en cuántica. Estas técnicas pertenecen al segundo tipo.

Cuando los ordenadores cuánticos estén desarrollados del todo, esto que hacemos en los clásicos lo podrán hacer de manera mucho más rápida. Ganarán siempre.

En el marco de la compresión, tenemos que cerrar esos acuerdos con los principales proveedores de nube y empezar a vender mucho, además de desarrollar nuevas técnicas. El otro objetivo es conquistar el mercado americano, donde están la mayoría de las compañías. En Europa estamos muy bien posicionados.

Nos gusta decir que estamos en el negocio del cambio de baterías: “En lugar de usar la pila que te vende OpenAI, saca esa pila, que es muy cara, y pon la mía”. Trabajamos para finanzas, salud, industria o las administraciones. En general, para aquellos que quieran ahorrarse buena parte de la factura o, además, quieran usar los modelos en sus ordenadores, no en la nube.

Se usa para lo que se llama el ‘employment aumentation’: proveer a los empleados de unas capacidades de análisis y de procesamiento de información mucho más altas. Permiten lidiar con problemas de complejidad técnica en los centros. Desde el mantenimiento de maquinaria en la industria hasta el análisis de datos desestructurados por parte de bancos y administraciones.

Los fabricantes de los modelos tradicionales se llevan la mayor parte del mercado. OpenAI; Anthropic, … En cambio, proveedores de este tipo, de modelos pequeñitos y más baratos, hay menos. Estamos nosotros y alguna compañía americana. En este sentido, un panorama gesoestratégico complicado nos puede beneficiar, ya que, excepto Mistral, todos son americanos. Cuanto más complicadas sean las relaciones con EE.UU. y en defensa, la UE siente más la necesidad de tener sus propias empresas en estos sectores que son estratégicos porque están en la base de todos los desarrollos de IA y de cuántica, lo que nos converte en una empresa europea estratégica.

Fuente: Empresa XXI