IA | Imágenes

Google suspende generación de imágenes de personas por inexactitudes históricas

Google suspende temporalmente la generación de imágenes de personas con su herramienta Gemini AI

Google ha anunciado que ha suspendido temporalmente la capacidad de Gemini, su suite de modelos AI generativos emblemáticos, para generar imágenes de personas mientras trabaja en la actualización del modelo para mejorar la precisión histórica de las salidas.

En una publicación en la plataforma de redes sociales X, la empresa anunció lo que describió como una "pausa" en la generación de imágenes de personas, escribiendo que está trabajando para abordar "problemas recientes" relacionados con inexactitudes históricas. "Mientras hacemos esto, vamos a pausar la generación de imágenes de personas y lanzaremos una versión mejorada pronto", añadió.

Críticas y ridículo por imágenes incongruentes generadas por Gemini AI

Google lanzó la herramienta de generación de imágenes Gemini a principios de este mes. Sin embargo, ejemplos de ella generando imágenes incongruentes de personas históricas han estado circulando en las redes sociales en los últimos días, como imágenes de los Padres Fundadores de EE. UU. representados como indígenas americanos, negros o asiáticos, lo que ha llevado a críticas e incluso burlas.

Escribiendo en una publicación en LinkedIn, el capitalista de riesgo con sede en París, Michael Jackson, se unió hoy a las críticas, calificando la IA de Google como "una parodia DEI sin sentido" (DEI significa 'Diversidad, Equidad e Inclusión'). En una publicación anterior en X ayer, Google confirmó que era "consciente" de que la IA estaba produciendo "inexactitudes en algunas representaciones de generación de imágenes históricas", agregando en un comunicado: "Estamos trabajando para mejorar este tipo de representaciones de inmediato. La generación de imágenes Al de Gemini produce una amplia gama de personas, lo cual generalmente es algo bueno porque la gente de todo el mundo la usa. Pero está fallando aquí".

Críticas anteriores a herramientas AI generativas de Google

Las herramientas AI generativas producen resultados basados en datos de entrenamiento y otros parámetros, como los pesos del modelo. Estas herramientas han enfrentado críticas más a menudo por producir resultados sesgados de manera más estereotipada, como imágenes de mujeres sexualizadas o al responder a indicaciones de roles laborales de alto estatus con imágenes de hombres blancos.

Una herramienta AI de clasificación de imágenes anterior creada por Google causó indignación en 2015 cuando clasificó incorrectamente a hombres negros como gorilas. La empresa prometió solucionar el problema, pero, como informó Wired unos años después, su "solución" fue simplemente bloquear la tecnología para que no reconociera gorilas en absoluto.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Protección digital

YouTube refuerza protección contra deepfakes para figuras públicas

YouTube ha ampliado su tecnología de detección de semejanza para proteger a figuras públicas del uso indebido de la inteligencia artificial, como los deepfakes. Esta...

Asistente inteligente

Google lanza Gemini en Asia-Pacífico para mejorar la productividad

Google ha expandido su herramienta Gemini en Chrome a varios países de Asia-Pacífico, mejorando la experiencia del usuario con un asistente personalizado. Aunque la función...

Comunicación equilibrada

Comunicación corporativa: equilibrio entre modernidad y autenticidad esencial

La comunicación corporativa ha adoptado la estructura "no solo... sino también..." como un fenómeno lingüístico, impulsado por la inteligencia artificial. Aunque busca modernizar el discurso,...

Planificación estratégica

Planificación estratégica clave para el éxito de startups tecnológicas

La planificación estratégica es crucial para las startups tecnológicas, especialmente en la toma de decisiones sobre salidas. Identificar el momento adecuado para vender maximiza el...

Controversia ética

Palantir genera controversia por su ideología y vínculos gubernamentales

Palantir Technologies ha suscitado controversia por su relación con agencias gubernamentales y su ideología, expuesta en un resumen de 22 puntos. La empresa defiende un...

Tensiones tecnológicas

Anthropic y Pentágono: tensiones y oportunidades en IA

Anthropic, cofundada por Jack Clark, enfrenta tensiones con el Pentágono tras su designación como riesgo para la cadena de suministro. Sin embargo, sectores de la...

Crecimiento inesperado

Las aplicaciones móviles crecen gracias a la inteligencia artificial

El crecimiento inesperado de las aplicaciones móviles en la era de la inteligencia artificial desafía la creencia de que estas se volverían obsoletas. La IA...

Reestructuración empresarial

OpenAI reestructura su enfoque tras salida de líderes clave

OpenAI está reestructurándose tras la salida de líderes clave como Kevin Weil y Bill Peebles, enfocándose en aplicaciones empresariales y cerrando proyectos como Sora. La...