Financiación
OPAQUE obtiene 24 millones de dólares en una Serie B con una valoración de 300 millones de dólares para impulsar la IA confidencial.

La adopción de la IA empresarial continúa acelerándose, pero la confianza sigue siendo una de sus mayores limitaciones. Esta semana, OPACO anunció un $ 24 millones ronda de financiación de la Serie B, valorando la empresa en aproximadamente 300 millones de dólares después del dinero y llevar la financiación total a 55.5 millones de dólares. La ronda fue liderada por Catalizador Walden, con la participación de patrocinadores existentes, incluidos Intel Capital, Capital de la carrera, Tormentas y Thomvest, junto con un nuevo inversor estratégico Consejo de Investigación de Tecnología Avanzada (ATRC).
El aumento subraya un consenso cada vez mayor en todo el panorama empresarial: la IA no puede escalar en datos confidenciales sin garantías más sólidas y verificables en torno a la privacidad, la gobernanza y la seguridad.
De la IA experimental al mandato empresarial
Durante el último año, la IA confidencial ha pasado de ser un concepto principalmente académico a un requisito práctico para las organizaciones que implementan modelos generativos y agentes de IA en producción. A medida que los sistemas de IA interactúan cada vez más con datos regulados, propiedad intelectual y flujos de trabajo críticos, los enfoques tradicionales de seguridad —centrados en datos en reposo o en tránsito— han demostrado ser insuficientes.
El trabajo de OPAQUE se centra en la protección de datos y modelos mientras se utilizanNo solo antes o después. Esa distinción es importante. Muchas iniciativas de IA empresarial se estancan después de los primeros pilotos porque los CISO, los equipos legales y los responsables de cumplimiento no pueden verificar qué sucede con los datos confidenciales durante la ejecución de la IA. El resultado son dudas, retrasos y, en muchos casos, el abandono de las implementaciones.
La inteligencia artificial confidencial pretende cerrar esta brecha al ofrecer garantías criptográficas de que los datos permanecen privados, se aplican las políticas y los modelos no quedan expuestos, incluso durante el tiempo de ejecución.
Abordar la “brecha de confianza” empresarial
Las empresas de hoy están ansiosas por implementar Agentes de inteligencia artificial en datos propietarios para obtener ventajas de productividad y conocimiento operativo. Sin embargo, esos mismos datos suelen ser los más sensibles que posee una organización. Sin garantías verificables, la IA pasa rápidamente de ser una oportunidad a un riesgo.
OPAQUE posiciona su plataforma como una capa de confianza para la IA empresarial, diseñada para proporcionar privacidad demostrable, cumplimiento de políticas e integridad del modelo antes, durante y después de la ejecución de la IA. En lugar de basarse en suposiciones o garantías contractuales, la plataforma se centra en la evidencia, lo que permite demostrar el cumplimiento y la gobernanza en tiempo real.
Este enfoque refleja un cambio más amplio en la mentalidad empresarial. Los sistemas de IA ya no se evalúan únicamente por su rendimiento o precisión. Cada vez más, las organizaciones se preguntan si pueden cómo se comporta la IA, a qué datos accedió y si siguió las reglas aprobadas.
Qué apoya la nueva financiación
El capital de la Serie B se utilizará para acelerar el desarrollo y la implementación de la plataforma de inteligencia artificial confidencial de OPAQUE, con el objetivo de ayudar a las empresas a pasar de la experimentación a la producción de manera más rápida y segura.
Paralelamente, la empresa se está expandiendo en áreas como seguridad poscuántica, entrenamiento confidencial de IA y entornos de nube soberanaEstas iniciativas están dirigidas a organizaciones que operan bajo estrictas restricciones regulatorias, de seguridad nacional o de residencia de datos, donde la visibilidad y el control sobre las cargas de trabajo de IA no son negociables.
OPAQUE también ha lanzado recientemente OPAQUE Studio, un entorno de desarrollo diseñado para simplificar la creación e implementación de agentes de IA confidenciales. El objetivo es que la privacidad y el cumplimiento normativo verificables en tiempo de ejecución sean parte integral del ciclo de vida del desarrollo de IA, en lugar de una consideración posterior.
Implicaciones más amplias para la IA empresarial
El auge de la IA confidencial apunta a una evolución más profunda en la forma en que las organizaciones implementarán sistemas inteligentes. A medida que la IA se integra en la toma de decisiones, la automatización y las interacciones con los clientes, la gobernanza debe pasar de los documentos de políticas a la aplicación técnica.
Las tecnologías que pueden demostrar, en tiempo real, la protección de los datos y el cumplimiento de las normas pueden convertirse en la base de las soluciones de IA empresarial. Esto es especialmente cierto en sectores regulados como los servicios financieros, la sanidad y los seguros, donde los requisitos de cumplimiento normativo se están endureciendo en lugar de flexibilizarse.
La IA confidencial también podría facilitar nuevas formas de colaboración. Las organizaciones podrían analizar conjuntos de datos compartidos o agrupados sin exponer datos sin procesar, lo que permitiría acceder a información que antes estaba fuera del alcance debido a problemas de privacidad. En este sentido, una infraestructura que preserve la confianza no solo podría reducir el riesgo, sino que también podría ampliar las posibilidades de la IA.












