IA | Imágenes

Google suspende generación de imágenes de personas por inexactitudes históricas

Google suspende temporalmente la generación de imágenes de personas con su herramienta Gemini AI

Google ha anunciado que ha suspendido temporalmente la capacidad de Gemini, su suite de modelos AI generativos emblemáticos, para generar imágenes de personas mientras trabaja en la actualización del modelo para mejorar la precisión histórica de las salidas.

En una publicación en la plataforma de redes sociales X, la empresa anunció lo que describió como una "pausa" en la generación de imágenes de personas, escribiendo que está trabajando para abordar "problemas recientes" relacionados con inexactitudes históricas. "Mientras hacemos esto, vamos a pausar la generación de imágenes de personas y lanzaremos una versión mejorada pronto", añadió.

Críticas y ridículo por imágenes incongruentes generadas por Gemini AI

Google lanzó la herramienta de generación de imágenes Gemini a principios de este mes. Sin embargo, ejemplos de ella generando imágenes incongruentes de personas históricas han estado circulando en las redes sociales en los últimos días, como imágenes de los Padres Fundadores de EE. UU. representados como indígenas americanos, negros o asiáticos, lo que ha llevado a críticas e incluso burlas.

Escribiendo en una publicación en LinkedIn, el capitalista de riesgo con sede en París, Michael Jackson, se unió hoy a las críticas, calificando la IA de Google como "una parodia DEI sin sentido" (DEI significa 'Diversidad, Equidad e Inclusión'). En una publicación anterior en X ayer, Google confirmó que era "consciente" de que la IA estaba produciendo "inexactitudes en algunas representaciones de generación de imágenes históricas", agregando en un comunicado: "Estamos trabajando para mejorar este tipo de representaciones de inmediato. La generación de imágenes Al de Gemini produce una amplia gama de personas, lo cual generalmente es algo bueno porque la gente de todo el mundo la usa. Pero está fallando aquí".

Críticas anteriores a herramientas AI generativas de Google

Las herramientas AI generativas producen resultados basados en datos de entrenamiento y otros parámetros, como los pesos del modelo. Estas herramientas han enfrentado críticas más a menudo por producir resultados sesgados de manera más estereotipada, como imágenes de mujeres sexualizadas o al responder a indicaciones de roles laborales de alto estatus con imágenes de hombres blancos.

Una herramienta AI de clasificación de imágenes anterior creada por Google causó indignación en 2015 cuando clasificó incorrectamente a hombres negros como gorilas. La empresa prometió solucionar el problema, pero, como informó Wired unos años después, su "solución" fue simplemente bloquear la tecnología para que no reconociera gorilas en absoluto.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Transferencia asistente

Google facilita la transición a Gemini con nuevas herramientas

Google ha lanzado herramientas que permiten a los usuarios transferir memorias y historiales de chat a su asistente Gemini, facilitando la transición desde otros chatbots....

Pausa estratégica

OpenAI pausa modo erótico y prioriza proyectos empresariales y militares

OpenAI ha pausado el controvertido modo "erótico" de ChatGPT y ha depriorizado otros proyectos, centrándose en áreas más relevantes como soluciones empresariales y militares. Esta...

Consumo energético

Senadores piden datos para regular consumo energético de centros de datos

La preocupación por el consumo energético de los centros de datos ha crecido en EE.UU., impulsando a senadores a solicitar a la EIA datos específicos...

Producción audiovisual

ByteDance lanza Dreamina Seedance 2.0 para crear vídeos fácilmente

ByteDance ha lanzado Dreamina Seedance 2.0, una herramienta de IA que facilita la creación de vídeos mediante descripciones textuales. Con su expansión en mercados clave,...

Reconocimiento voz

Cohere lanza Transcribe, revolucionando el reconocimiento de voz ligero

Cohere ha lanzado Transcribe, un modelo de reconocimiento de voz de código abierto y ligero, que admite 14 idiomas y procesa 525 minutos de audio...

Vigilancia ética

Vigilancia tecnológica: ¿seguridad o violación de la privacidad?

La tecnología de vigilancia enfrenta un debate ético sobre privacidad y seguridad. Empresas como Conntour destacan por su enfoque selectivo y ético, utilizando inteligencia artificial...

Voz innovadora

Mistral lanza Voxtral TTS, revolucionando la comunicación empresarial

Mistral ha lanzado Voxtral TTS, un innovador modelo de texto a voz que soporta nueve idiomas y permite personalización rápida. Optimizado para rendimiento en tiempo...

Incertidumbre laboral

Inteligencia artificial genera temor a pérdida de empleos laborales

La rápida evolución de la inteligencia artificial genera incertidumbre laboral, con un aumento del temor a la pérdida de empleos. Propuestas como gravar centros de...