IA | Vanguardia

Clarity lidera la lucha contra deepfakes con inteligencia artificial

Clarity: La empresa de ciberseguridad que lucha contra las deepfakes

Las deepfakes se han convertido en una preocupación cada vez mayor, ya que las herramientas para crearlas se vuelven más fáciles y baratas de usar. Según una encuesta reciente del Pew Center, aproximadamente dos tercios de los estadounidenses (66%) afirman que a veces se encuentran con videos e imágenes alteradas que pretenden engañar, y el 15% se encuentra con ellos con frecuencia. En otra encuesta realizada por Axios y la Universidad de Syracuse a expertos en inteligencia artificial, el 62% dijo que la desinformación será el mayor desafío para mantener la autenticidad y credibilidad de las noticias en la era del contenido generado por IA.

Ante este panorama, empresas como Clarity están trabajando para desarrollar herramientas de detección de deepfakes. Clarity fue fundada en 2022 por Michael Matias, especialista en ciberseguridad y CEO de la compañía, junto con Gil Avriel y Natalie Fridman. Su objetivo principal es desarrollar tecnología para detectar medios manipulados por IA, principalmente imágenes.

Clarity se encuentra entre las muchas empresas que compiten por desarrollar herramientas de detección de deepfakes. Otros competidores incluyen Reality Defender, que ofrece una plataforma para aislar deepfakes de texto, video e imagen, y Sentinel, que se enfoca en imágenes y videos manipulados por IA.

Clarity ofrece una herramienta de escaneo disponible a través de una aplicación y una API que utiliza varios modelos de IA para comparar los medios cargados, ya sean videos, imágenes o audio, con una base de datos de deepfakes e imágenes generadas por IA. Además, Clarity proporciona una forma de marca de agua que los clientes pueden utilizar para indicar que su contenido es legítimo.

Sin embargo, según Matias, lo que distingue a Clarity no se encuentra en la superficie, sino en su capacidad de respuesta rápida a nuevos tipos de deepfakes. "En su núcleo, Clarity utiliza IA pero opera como una empresa de ciberseguridad", dijo Matias. "Clarity trata los deepfakes como virus, actuando como patógenos que se ramifican y replican rápidamente. Como tal, su solución también se diseñó para ramificarse y replicarse para mantener la adaptabilidad y resiliencia... El equipo construyó infraestructura y modelos de IA dedicados a lograr esta tarea".

A pesar de los avances en la detección de deepfakes, es un objetivo en constante movimiento. Incluso con la mejor experiencia y tecnología, es un juego imposible de ganar considerando la velocidad a la que las aplicaciones de IA para crear deepfakes están mejorando. Es por eso que algunas empresas importantes, como Google, Microsoft y AWS, están adoptando técnicas más sofisticadas de marca de agua y metadatos de procedencia como medidas alternativas, aunque imperfectas, para combatir los deepfakes.

A pesar de estos desafíos, Clarity ha logrado atraer respaldo. Recientemente, la startup con sede en Nueva York, que cuenta con 13 empleados, cerró una ronda de financiación de 16 millones de dólares, liderada por Walden Catalyst Ventures y Bessemer Venture Partners, con la participación de Secret Chord Ventures, Ascend Ventures y Flying Fish Partners.

Inicialmente, Clarity buscaba clientes en editoriales de noticias y el sector público, incluido el gobierno de Israel. Matias afirma que Clarity está ayudando a autenticar y verificar videos relacionados con el conflicto entre Israel y Hamás. Sin embargo, la empresa ha expandido su alcance a proveedores de verificación de identidad y otras "grandes empresas" no reveladas.

"Esta es una carrera armamentista acelerada, al igual que la ciberseguridad tradicional", dijo Matias. "Cualquier empresa que quiera enfrentarse a los deepfakes debe moverse tan rápido como aquellos que los crean y difunden". Con su enfoque en la ciberseguridad y su capacidad de respuesta rápida, Clarity se está posicionando como un actor clave en la lucha contra los deepfakes.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Dilemas medioambientales

Meta enfrenta críticas por huella de carbono en expansión

La expansión de Meta con su centro de datos Hyperion plantea dilemas medioambientales al depender de plantas de gas natural, aumentando su huella de carbono....

Filtraciones preocupantes

Filtraciones en Anthropic generan alarma sobre seguridad en IA

Anthropic ha sufrido filtraciones de datos que han expuesto su código fuente, generando preocupaciones sobre la seguridad en la inteligencia artificial. Estos incidentes resaltan la...

Actualización colaborativa

Salesforce actualiza Slack con IA y mejora la colaboración empresarial

Salesforce ha presentado una actualización de Slack que incluye un asistente virtual mejorado, Slackbot, con capacidades de IA para gestionar tareas, resumir reuniones y conectar...

Financiación récord

OpenAI recauda 122 mil millones y se prepara para OPI

OpenAI ha recaudado 122 mil millones de dólares en una ronda de financiación, valorándose en 852 mil millones. Con más de 900 millones de usuarios...

Cierre inesperado

Yupp.ai cierra tras atraer 1,3 millones de usuarios

Yupp.ai, una startup de inteligencia artificial, cerró menos de un año tras su lanzamiento, a pesar de atraer 1,3 millones de usuarios y recibir 33...

Asistente inteligente

Alexa+ revoluciona pedidos a domicilio con interacciones personalizadas

La llegada de Alexa+, el nuevo asistente de Amazon, transforma la experiencia de pedir comida a domicilio mediante interacciones naturales y personalizadas. Aunque ofrece comodidad...

Datos estructurados

NomadicML recibe 8,4 millones para revolucionar datos en IA autónoma

NomadicML, una startup emergente, ha desarrollado una plataforma que convierte grabaciones en conjuntos de datos estructurados para mejorar el entrenamiento de modelos de IA en...

Desconfianza creciente

Creciente adopción de IA en EE. UU. pero baja confianza

La adopción de la inteligencia artificial en Estados Unidos crece, pero la confianza en ella es baja. Un estudio revela que el 76% desconfía de...