Cyera recauda $300 millones en ronda de financiación liderada por Coatue
Una startup de ciberseguridad llamada Cyera está apostando a que el próximo gran desafío en la protección de datos empresariales será la inteligencia artificial, y está recaudando una gran cantidad de fondos a medida que la demanda aumenta.
La empresa, que construye herramientas mejoradas con IA para crear imágenes precisas de dónde y cómo se está utilizando los datos en las redes de las organizaciones, está a punto de finalizar una ronda de casi $300 millones, triplicando su valoración a $1.5 mil millones en el proceso, según fuentes muy cercanas a la operación. La afamada firma de capital de riesgo Coatue está liderando la ronda de financiación, según las fuentes.
La ronda se espera que se complete a principios de abril. No está claro qué otros inversores participarán en esta ronda. Antes de esto, Cyera, con sede en San Mateo y con raíces en Israel, había recaudado un total de $160 millones, con su valoración actual de $500 millones desde el año pasado.
Inversores anteriores de Cyera incluyen a Sequoia (que lideró las dos rondas anteriores, incluida una ronda de $100 millones hace menos de un año, en junio de 2023), Accel, Redpoint y las firmas israelíes CyberStarts y Cerca Partners, entre otros. Cyera, Coatue y Sequoia declinaron hacer comentarios.
Esta última inversión en Cyera es notable por varias razones.
En primer lugar, subraya cómo la ciberseguridad, a pesar de las presiones en la economía tecnológica y el mercado de capital de riesgo, sigue atrayendo negocios, inversores y cheques grandes, incluso de firmas como Coatue que se han retirado de algunas de sus apuestas más entusiastas.
En segundo lugar, esta ronda arroja nueva luz sobre el gran papel que está desempeñando la IA en el mercado tecnológico actual. Empresas emergentes como OpenAI y Mistral continúan atrayendo inversiones millonarias para desarrollar grandes modelos de lenguaje, y es raro encontrar una organización hoy en día que no esté evaluando cómo utilizar más IA en su negocio. Pero cada vez más, los equipos de seguridad de la información también están reconociendo los problemas que la IA puede plantear.
Cyera está abordando estos escenarios, incluido el uso de IA en aplicaciones de chatbots o IA generativa, que corren el riesgo de violar sus propias políticas internas de protección de la propiedad intelectual y los datos.
Una fuente dijo que la IA es actualmente un "gran impulsor" para el negocio en Cyera. Sin embargo, curiosamente, la startup no se propuso inicialmente construir herramientas para identificar cómo y dónde se expondrían y potencialmente se malutilizarían los datos en aplicaciones de IA per se. Su enfoque inicial era más general: trabajar con empresas en sectores como la sanidad, la tecnología, los servicios financieros, la fabricación, el comercio minorista y los viajes, para proporcionar herramientas de clasificación de datos, gestión de postura (instantáneas que ayudan a rastrear cómo y dónde se están moviendo los datos), detección y respuesta, y gobernanza de acceso.
Sin embargo, Cyera ha notado recientemente un cambio en lo que sus clientes están pidiendo rastrear. Muchas organizaciones están introduciendo más automatización en sus redes, y la preocupación es que esto también dificultará mucho categorizar y filtrar el uso de datos sensibles. "Se trata de todo lo que las empresas necesitan hacer para prepararse para la IA", dijo. "La IA es un problema de datos".
Otras noticias • IA
OpenAI lanza modelos o3 y o4-mini con mejoras y riesgos
OpenAI ha lanzado los modelos o3 y o4-mini, que mejoran el razonamiento, pero presentan un aumento en las "alucinaciones" o generación de información incorrecta. Expertos...
Reacciones mixtas ante la personalización de ChatGPT en usuarios
La interacción entre humanos y máquinas, ejemplificada por ChatGPT, ha suscitado reacciones mixtas por el uso del nombre de los usuarios. Aunque busca personalizar la...
Geoff Ralston lanza fondo para startups de inteligencia artificial segura
Geoff Ralston lanza el Safe Artificial Intelligence Fund (SAIF) para invertir en startups que priorizan la seguridad en la inteligencia artificial. Su enfoque ético contrasta...
Google enfrenta críticas por falta de transparencia en Gemini 2.5 Pro
El informe técnico de Google sobre su modelo Gemini 2.5 Pro ha sido criticado por su falta de detalles, generando desconfianza en la comunidad de...
IA en imágenes: avances y riesgos para la privacidad
El uso de modelos de IA como o3 y o4-mini de OpenAI para identificar ubicaciones en imágenes ha generado interés y preocupaciones sobre la privacidad....
OpenAI implementa vigilancia para prevenir amenazas en IA
OpenAI ha implementado un sistema de vigilancia para sus modelos o3 y o4-mini, diseñado para prevenir el asesoramiento en amenazas biológicas y químicas. A pesar...
Desafíos éticos y de seguridad en la inteligencia artificial
La rápida evolución de la inteligencia artificial plantea desafíos de seguridad y ética. Evaluaciones apresuradas de modelos como o3 de OpenAI han revelado comportamientos engañosos....
Codex CLI de OpenAI mejora la programación con IA localmente
Codex CLI de OpenAI es un agente de programación de código abierto que opera localmente, mejorando la eficiencia en el desarrollo de software. Su integración...
Lo más reciente
- 1
Palantir enfrenta críticas éticas por contrato con ICE
- 2
A Minecraft Movie alcanza 720 millones y conquista a fans
- 3
Controversia sobre modelo O3 resalta necesidad de transparencia en IA
- 4
Meta busca revitalizar Facebook ante la competencia de TikTok
- 5
Mechanize genera controversia por su ambiciosa automatización laboral
- 6
Juicio antimonopolio a Meta podría cambiar redes sociales para siempre
- 7
Owen Nowhere revoluciona la animación infantil con blockchain interactivo