En la RSA Conference 2023, Google presentó Cloud Security AI Workbench, una suite de ciberseguridad impulsada por un modelo de lenguaje de inteligencia artificial especializado en seguridad llamado Sec-PaLM. Este modelo es una derivación del modelo PaLM de Google, pero está "ajustado para casos de uso de seguridad", incorporando inteligencia de seguridad como investigaciones sobre vulnerabilidades de software, malware, indicadores de amenazas y perfiles de actores de amenazas.
Cloud Security AI Workbench incluye una serie de herramientas impulsadas por inteligencia artificial, como Threat Intelligence AI de Mandiant, que utilizará Sec-PaLM para encontrar, resumir y actuar sobre las amenazas de seguridad. VirusTotal, otra propiedad de Google, utilizará Sec-PaLM para ayudar a los suscriptores a analizar y explicar el comportamiento de los scripts maliciosos.
Además, Sec-PaLM ayudará a los clientes de Chronicle, el servicio de ciberseguridad en la nube de Google, a buscar eventos de seguridad e interactuar "conservadoramente" con los resultados. Los usuarios de Security Command Center AI de Google, por su parte, recibirán explicaciones "legibles por humanos" sobre la exposición a ataques, incluyendo activos afectados, mitigaciones recomendadas y resúmenes de riesgos para hallazgos de seguridad, cumplimiento y privacidad.
"Si bien la inteligencia artificial generativa ha capturado recientemente la imaginación, Sec-PaLM se basa en años de investigación de inteligencia artificial fundamental de Google y DeepMind, y en la profunda experiencia de nuestros equipos de seguridad", escribió Google en una publicación de blog. "Apenas hemos comenzado a darse cuenta del poder de aplicar la inteligencia artificial generativa a la seguridad, y esperamos seguir aprovechando esta experiencia para nuestros clientes y avanzar en la comunidad de seguridad".
Estas son ambiciones bastante audaces, especialmente considerando que VirusTotal Code Insight, la primera herramienta de Cloud Security AI Workbench, solo está disponible en una vista previa limitada en este momento. No está claro cuán bien funciona Sec-PaLM en la práctica. Si bien las "mitigaciones recomendadas y los resúmenes de riesgos" suenan útiles, ¿son las sugerencias mucho mejores o más precisas porque las produjo un modelo de inteligencia artificial?
Después de todo, los modelos de lenguaje de inteligencia artificial, por muy avanzados que sean, cometen errores. Y son susceptibles a ataques como la inyección de comandos, que pueden hacer que se comporten de manera no deseada.
Sin embargo, esto no detiene a las grandes empresas tecnológicas. En marzo, Microsoft lanzó Security Copilot, una nueva herramienta que tiene como objetivo "resumir" y "dar sentido" a la inteligencia de amenazas utilizando modelos de inteligencia artificial generativa de OpenAI, incluido GPT-4. En los materiales de prensa, Microsoft, al igual que Google, afirmó que la inteligencia artificial generativa equiparía mejor a los profesionales de la seguridad para combatir nuevas amenazas.
El veredicto todavía está por verse. En realidad, la inteligencia artificial generativa para la ciberseguridad podría resultar ser más hype que otra cosa, ya que hay una escasez de estudios sobre su efectividad. Con suerte, veremos los resultados pronto, pero mientras tanto, es mejor tomar las afirmaciones de Google y Microsoft con una pizca de sal.
Otras noticias • IA
Airbnb lanza bot de IA que reduce consultas humanas un 15%
Airbnb ha implementado un bot de servicio al cliente basado en inteligencia artificial en EE. UU., con un 50% de usuarios utilizándolo. Esto ha reducido...
Reddit lanza chatbot para satisfacer a Seekers y aumentar compromiso
Reddit ha identificado dos tipos de usuarios: Scrollers, que buscan interacción comunitaria, y Seekers, que buscan respuestas. Para estos últimos, ha lanzado Reddit Answers, un...
Amazon presenta Alexa+ con IA generativa para interacciones mejoradas
Amazon ha lanzado Alexa+, un asistente digital mejorado con IA generativa, que busca ofrecer interacciones más naturales. Aunque enfrenta retos tecnológicos y limitaciones actuales, la...
Inteligencia artificial revoluciona ciencia, pero genera escepticismo persistente
La inteligencia artificial está transformando la investigación científica, con herramientas como las de FutureHouse que prometen acelerar descubrimientos. Sin embargo, persisten limitaciones y escepticismo entre...
Olmo 2 1B democratiza la IA con un billón de parámetros
Olmo 2 1B, lanzado por Ai2, es un modelo de inteligencia artificial con un billón de parámetros, diseñado para ser accesible y eficiente en dispositivos...
Claude de Anthropic se actualiza con nuevas integraciones avanzadas
Anthropic ha actualizado su chatbot Claude con nuevas integraciones que mejoran su conectividad y capacidad de investigación profunda. Asociaciones con empresas como Atlassian y Zapier...
Google elimina lista de espera y lanza AI Mode para todos
Google ha eliminado la lista de espera para su función AI Mode, permitiendo a todos los usuarios mayores de 18 años en EE. UU. acceder...
World une alianzas estratégicas para revolucionar la seguridad digital
World, una empresa de identificación biométrica, ha formado alianzas estratégicas con Match Group, Kalshi y Stripe para expandir su alcance y facilitar el acceso a...
Lo más reciente
- 1
Inteligencia artificial prioriza compromiso y descuida calidad en interacciones
- 2
Gemini 2.5 de Google genera más contenido inapropiado y preocupaciones
- 3
Filtración en Raw expone datos sensibles y genera alarma
- 4
Startups innovan en tecnología legal moda y salud a pesar desafíos
- 5
NotebookLM de Google transforma la toma de notas móviles
- 6
OpenAI mejora IA tras incidentes de respuestas inapropiadas
- 7
Inversores aumentan apoyo a startups de tecnología climática