IA | Imágenes

Google suspende generación de imágenes de personas por inexactitudes históricas

Google suspende temporalmente la generación de imágenes de personas con su herramienta Gemini AI

Google ha anunciado que ha suspendido temporalmente la capacidad de Gemini, su suite de modelos AI generativos emblemáticos, para generar imágenes de personas mientras trabaja en la actualización del modelo para mejorar la precisión histórica de las salidas.

En una publicación en la plataforma de redes sociales X, la empresa anunció lo que describió como una "pausa" en la generación de imágenes de personas, escribiendo que está trabajando para abordar "problemas recientes" relacionados con inexactitudes históricas. "Mientras hacemos esto, vamos a pausar la generación de imágenes de personas y lanzaremos una versión mejorada pronto", añadió.

Críticas y ridículo por imágenes incongruentes generadas por Gemini AI

Google lanzó la herramienta de generación de imágenes Gemini a principios de este mes. Sin embargo, ejemplos de ella generando imágenes incongruentes de personas históricas han estado circulando en las redes sociales en los últimos días, como imágenes de los Padres Fundadores de EE. UU. representados como indígenas americanos, negros o asiáticos, lo que ha llevado a críticas e incluso burlas.

Escribiendo en una publicación en LinkedIn, el capitalista de riesgo con sede en París, Michael Jackson, se unió hoy a las críticas, calificando la IA de Google como "una parodia DEI sin sentido" (DEI significa 'Diversidad, Equidad e Inclusión'). En una publicación anterior en X ayer, Google confirmó que era "consciente" de que la IA estaba produciendo "inexactitudes en algunas representaciones de generación de imágenes históricas", agregando en un comunicado: "Estamos trabajando para mejorar este tipo de representaciones de inmediato. La generación de imágenes Al de Gemini produce una amplia gama de personas, lo cual generalmente es algo bueno porque la gente de todo el mundo la usa. Pero está fallando aquí".

Críticas anteriores a herramientas AI generativas de Google

Las herramientas AI generativas producen resultados basados en datos de entrenamiento y otros parámetros, como los pesos del modelo. Estas herramientas han enfrentado críticas más a menudo por producir resultados sesgados de manera más estereotipada, como imágenes de mujeres sexualizadas o al responder a indicaciones de roles laborales de alto estatus con imágenes de hombres blancos.

Una herramienta AI de clasificación de imágenes anterior creada por Google causó indignación en 2015 cuando clasificó incorrectamente a hombres negros como gorilas. La empresa prometió solucionar el problema, pero, como informó Wired unos años después, su "solución" fue simplemente bloquear la tecnología para que no reconociera gorilas en absoluto.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Asistentes inteligentes

Anthropic lanza asistentes inteligentes para optimizar tareas empresariales

Anthropic ha lanzado un programa de agentes empresariales que permite a las empresas utilizar asistentes inteligentes personalizados para optimizar tareas laborales. Este sistema incluye complementos...

Salud femenina

Oura lanza IA para chatbot centrado en salud femenina

Oura ha lanzado un modelo de IA para su chatbot Oura Advisor, centrado en la salud femenina. Ofrece insights personalizados sobre salud reproductiva, combinando datos...

Acuerdo tecnológico

Meta y AMD invierten 100.000 millones en chips de IA

Meta y AMD han firmado un acuerdo de hasta 100.000 millones de dólares para adquirir chips, diversificando su infraestructura de IA. Esta colaboración busca reducir...

Búsqueda inteligente

Nimble revoluciona búsqueda web con IA y 47 millones de dólares

Nimble, una startup de Nueva York, utiliza IA para transformar la búsqueda web al validar y estructurar resultados en tiempo real, facilitando su integración en...

Innovación digital

Canva revoluciona el diseño digital con nuevas adquisiciones estratégicas

Canva está revolucionando la creación de contenido digital con la adquisición de Cavalry y Mango AI, integrando animación y optimización de anuncios. Estas innovaciones amplían...

Riesgos IA

Investigadora de Meta AI advierte sobre riesgos de la IA

La historia de Summer Yue, investigadora de Meta AI, ilustra los peligros del uso de inteligencia artificial. Su agente OpenClaw borró correos sin control, resaltando...

Ética IA

Controversia de Anthropic revela dudas sobre ética en IA

Las acusaciones de Anthropic contra empresas chinas por el uso indebido del distillado de su modelo Claude plantean serias dudas sobre la ética y la...

Transparencia ética

Steerling-8B: Modelo de IA que promueve transparencia y ética

Guide Labs ha desarrollado Steerling-8B, un modelo de lenguaje interpretable con 8 mil millones de parámetros, que permite rastrear decisiones y mejorar la transparencia en...