Google amplía su programa de recompensas por vulnerabilidades para incluir ataques a la inteligencia artificial generativa
Google ha ampliado su programa de recompensas por vulnerabilidades (VRP, por sus siglas en inglés) para incluir escenarios de ataque específicos para la inteligencia artificial generativa. La compañía anunció que esta expansión incentivará la investigación en seguridad de la IA y permitirá identificar posibles problemas que, en última instancia, harán que la IA sea más segura para todos.
El programa de recompensas por vulnerabilidades de Google paga a los hackers éticos por encontrar y divulgar de manera responsable fallas de seguridad. Dado que la IA generativa presenta nuevos problemas de seguridad, como el potencial de sesgos injustos o manipulación del modelo, Google decidió replantear cómo se categorizan y reportan los errores que recibe.
Para lograr esto, la compañía está utilizando los hallazgos de su recién formado Equipo Rojo de IA, un grupo de hackers que simulan una variedad de adversarios, desde estados-nación y grupos respaldados por el gobierno hasta hacktivistas y personas con malas intenciones, para detectar debilidades de seguridad en la tecnología. Recientemente, el equipo realizó un ejercicio para determinar las mayores amenazas para la tecnología detrás de productos de IA generativa como ChatGPT y Google Bard.
El equipo descubrió que los grandes modelos de lenguaje (LLMs, por sus siglas en inglés) son vulnerables a ataques de inyección de indicaciones, por ejemplo, en los que un hacker crea indicaciones adversas que pueden influir en el comportamiento del modelo. Un atacante podría utilizar este tipo de ataque para generar texto perjudicial u ofensivo o filtrar información confidencial. También advirtieron sobre otro tipo de ataque llamado extracción de datos de entrenamiento, que permite a los hackers reconstruir ejemplos de entrenamiento de manera textual para extraer información personal identificable o contraseñas de los datos.
Ambos tipos de ataques están incluidos en el alcance del VRP ampliado de Google, junto con los ataques de manipulación del modelo y robo del modelo. Sin embargo, Google no ofrecerá recompensas a los investigadores que descubran errores relacionados con problemas de derechos de autor o extracción de datos que reconstruyan información no sensible o pública.
Las recompensas monetarias variarán según la gravedad de la vulnerabilidad descubierta. Actualmente, los investigadores pueden ganar hasta $31,337 si encuentran ataques de inyección de comandos y fallas de deserialización en aplicaciones altamente sensibles, como Google Search o Google Play. Si las fallas afectan a aplicaciones de menor prioridad, la recompensa máxima es de $5,000.
Google informó que pagó más de $12 millones en recompensas a investigadores de seguridad en 2022, lo que demuestra su compromiso con la protección de la IA y la promoción de la investigación en seguridad cibernética. Con esta expansión del VRP, Google busca fomentar aún más la colaboración entre la comunidad de investigadores y la compañía para mejorar la seguridad de la IA generativa y garantizar su uso responsable en beneficio de todos.
Otras noticias • Seguridad
Apple alerta sobre spyware y aviva debate sobre privacidad digital
La notificación de Apple sobre ataques de spyware a usuarios ha intensificado el debate sobre la privacidad digital. Activistas como Ciro Pellegrino y Eva Vlaardingerbroek...
Karnataka bloquea Proton Mail y desata debate sobre privacidad
El Tribunal Superior de Karnataka ha ordenado el bloqueo de Proton Mail tras una denuncia por correos obscenos, generando un debate sobre privacidad y libertad...
Amenazas gubernamentales en ciberseguridad exigen regulaciones más estrictas
La ciberseguridad enfrenta una creciente amenaza de ataques respaldados por gobiernos, con un aumento en el uso de exploits de día cero. La línea entre...
4chan reactivado revela dilema entre libertad y responsabilidad social
La reciente reactivación de 4chan tras un hackeo destaca su vulnerabilidad y el dilema entre libertad de expresión y responsabilidad social. Aunque criticada por su...
Escándalo de privacidad: Blue Shield expone datos de 4.7 millones
Blue Shield de California ha compartido datos sensibles de 4.7 millones de pacientes con Google debido a una configuración incorrecta en Google Analytics. Este escándalo...
Endor Labs revoluciona la seguridad del código con IA
Endor Labs se centra en la seguridad del código generado por IA, ofreciendo herramientas para detectar vulnerabilidades y aplicar correcciones automáticas. Con una reciente financiación...
Cynomi recauda 37 millones para ciberseguridad de PYMEs
Cynomi, una startup de ciberseguridad, ha recaudado 37 millones de dólares para ofrecer un "CISO virtual" asequible a pequeñas y medianas empresas (PYMEs). Su enfoque...
Florida propone ley para regular acceso de menores a redes sociales
Un proyecto de ley en Florida busca regular el acceso de menores a redes sociales, exigiendo a las plataformas desactivar el cifrado en ciertas circunstancias....
Lo más reciente
- 1
Gemini 2.5 Pro de Google completa Pokémon Blue, un hito
- 2
Plataformas de segunda mano se adaptan y crecen en crisis
- 3
Inteligencia artificial prioriza compromiso y descuida calidad en interacciones
- 4
Gemini 2.5 de Google genera más contenido inapropiado y preocupaciones
- 5
Filtración en Raw expone datos sensibles y genera alarma
- 6
Startups innovan en tecnología legal moda y salud a pesar desafíos
- 7
NotebookLM de Google transforma la toma de notas móviles