IA | Alianza

Empresas tecnológicas se unen para combatir deepfakes electorales

Empresas tecnológicas se comprometen a luchar contra los deepfakes relacionados con las elecciones

Varias empresas tecnológicas han anunciado su compromiso de combatir los deepfakes relacionados con las elecciones, en medio de una creciente presión por parte de los responsables políticos. Microsoft, Meta, Google, Amazon, Adobe e IBM, entre otros, han firmado un acuerdo en la Conferencia de Seguridad de Múnich en el que expresan su intención de adoptar un marco común para responder a los deepfakes generados por inteligencia artificial (IA) con la intención de engañar a los votantes. Además, otras trece empresas, incluyendo startups de IA como OpenAI, Anthropic, Inflection AI, ElevenLabs y Stability AI, y plataformas de redes sociales como X (anteriormente conocida como Twitter), TikTok y Snap, se han unido a la firma del acuerdo. También han participado en el acuerdo la empresa de chips Arm y las empresas de seguridad McAfee y TrendMicro.

Detección y etiquetado de deepfakes políticos

Las empresas firmantes del acuerdo han anunciado que utilizarán métodos para detectar y etiquetar deepfakes políticos engañosos cuando sean creados y distribuidos en sus plataformas. Además, compartirán las mejores prácticas entre ellas y proporcionarán "respuestas rápidas y proporcionadas" cuando los deepfakes comiencen a difundirse. Estas empresas también han destacado la importancia de prestar especial atención al contexto al responder a los deepfakes, con el objetivo de "[proteger] la expresión educativa, documental, artística, satírica y política", al mismo tiempo que mantienen la transparencia con los usuarios sobre sus políticas en relación con el contenido electoral engañoso.

Un acuerdo sin mucho poder

Aunque algunas críticas podrían decir que el acuerdo carece de poder y no es más que un gesto simbólico, ya que sus medidas son voluntarias, su importancia radica en la muestra de cautela por parte del sector tecnológico ante la posibilidad de regulaciones relacionadas con las elecciones. Este año, el 49% de la población mundial acudirá a las urnas en elecciones nacionales.

Brad Smith, vicepresidente de Microsoft, ha declarado en un comunicado de prensa que "no hay forma de que el sector tecnológico pueda proteger las elecciones por sí solo de este nuevo tipo de abuso electoral". Smith también ha señalado la necesidad de una acción multilateral en el futuro y ha destacado que "es evidente que la protección de las elecciones requerirá que todos trabajemos juntos".

Acciones para combatir los deepfakes

En los Estados Unidos, no existe una ley federal que prohíba los deepfakes, ya sean relacionados con las elecciones o no. Sin embargo, diez estados en todo el país han promulgado leyes que los criminalizan, siendo Minnesota el primero en apuntar a los deepfakes utilizados en campañas políticas.

A nivel federal, las agencias han tomado medidas de aplicación de la ley para combatir la difusión de los deepfakes. La Comisión Federal de Comercio (FTC) ha anunciado esta semana que está buscando modificar una norma existente que prohíbe la suplantación de empresas o agencias gubernamentales para incluir a todos los consumidores, incluidos los políticos. Además, la Comisión Federal de Comunicaciones (FCC) ha tomado medidas para ilegalizar las llamadas robóticas de voz generadas por IA reinterpretando una norma que prohíbe el spam de mensajes de voz artificiales y pregrabados.

En la Unión Europea, el AI Act de la UE requeriría que todo el contenido generado por IA se etiquete claramente como tal. La UE también está utilizando su Ley de Servicios Digitales para obligar a la industria tecnológica a frenar los deepfakes en diversas formas.

El aumento de los deepfakes y la preocupación pública

A pesar de los esfuerzos por combatirlos, los deepfakes continúan proliferando. Según datos de Clarity, una empresa de detección de deepfakes, el número de deepfakes creados ha aumentado un 900% interanual.

El mes pasado, se produjeron llamadas robóticas con la voz del presidente de los Estados Unidos, Joe Biden, que intentaban desalentar a las personas a votar en las elecciones primarias de New Hampshire. Además, en noviembre, justo días antes de las elecciones en Eslovaquia, se utilizaron grabaciones de audio generadas por IA para suplantar a un candidato liberal, en las que se discutían planes para aumentar los precios de la cerveza y manipular las elecciones.

En una encuesta reciente de YouGov, el 85% de los estadounidenses afirmaron estar muy preocupados o algo preocupados por la difusión de deepfakes de video y audio engañosos. Además, una encuesta del Centro de Investigación de Asuntos Públicos de The Associated Press-NORC reveló que casi el 60% de los adultos piensan que las herramientas de IA aumentarán la difusión de información falsa y engañosa durante el ciclo electoral de 2024 en los Estados Unidos.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Demanda ética

Anthropic demanda al DOD por restricciones en colaboración gubernamental

Anthropic ha demandado al Departamento de Defensa por ser etiquetada como riesgo para la cadena de suministro, impidiendo su colaboración con el gobierno. La empresa...

Colaboración robótica

Neura Robotics y Qualcomm unen fuerzas para revolucionar la robótica

La colaboración entre Neura Robotics y Qualcomm destaca la importancia de unir fuerzas en el desarrollo de soluciones robóticas avanzadas. Esta alianza, centrada en la...

Valoración elevada

Nscale, respaldada por Nvidia, alcanza valoración de 14.600 millones

Nscale, respaldada por Nvidia, alcanza una valoración de 14.600 millones de dólares gracias a su estrategia de integración vertical y financiación significativa. Con proyectos ambiciosos...

Regulación ética

Expertos piden regulación ética para una inteligencia artificial segura

La "Declaración Pro-Humana" aboga por una regulación responsable de la inteligencia artificial (IA) para evitar su uso perjudicial. Reúne a expertos de diversas ideologías, enfatizando...

Renuncia ética

Caitlin Kalinowski renuncia a OpenAI por preocupaciones éticas

Caitlin Kalinowski, ejecutiva de OpenAI, renunció por preocupaciones éticas tras un acuerdo controvertido con el Pentágono sobre el uso de IA en defensa. Su decisión...

Riesgo tecnológico

Defensa de EE. UU. clasifica a Anthropic como riesgo ético

El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo por su negativa a ceder su tecnología para usos militares. Microsoft...

Crecimiento ético

Claude supera a ChatGPT y gana la confianza del público

Claude, el modelo de inteligencia artificial de Anthropic, ha experimentado un crecimiento inesperado en usuarios y descargas, superando a ChatGPT en ciertos aspectos. Su postura...

Chatbots permitidos

Meta abre WhatsApp a chatbots de terceros en Brasil

Meta ha permitido el uso de chatbots de terceros en WhatsApp en Brasil, tras presiones regulatorias de CADE. Aunque esto fomenta la competencia, los altos...