IA | Imágenes

Google suspende generación de imágenes de personas por inexactitudes históricas

Google suspende temporalmente la generación de imágenes de personas con su herramienta Gemini AI

Google ha anunciado que ha suspendido temporalmente la capacidad de Gemini, su suite de modelos AI generativos emblemáticos, para generar imágenes de personas mientras trabaja en la actualización del modelo para mejorar la precisión histórica de las salidas.

En una publicación en la plataforma de redes sociales X, la empresa anunció lo que describió como una "pausa" en la generación de imágenes de personas, escribiendo que está trabajando para abordar "problemas recientes" relacionados con inexactitudes históricas. "Mientras hacemos esto, vamos a pausar la generación de imágenes de personas y lanzaremos una versión mejorada pronto", añadió.

Críticas y ridículo por imágenes incongruentes generadas por Gemini AI

Google lanzó la herramienta de generación de imágenes Gemini a principios de este mes. Sin embargo, ejemplos de ella generando imágenes incongruentes de personas históricas han estado circulando en las redes sociales en los últimos días, como imágenes de los Padres Fundadores de EE. UU. representados como indígenas americanos, negros o asiáticos, lo que ha llevado a críticas e incluso burlas.

Escribiendo en una publicación en LinkedIn, el capitalista de riesgo con sede en París, Michael Jackson, se unió hoy a las críticas, calificando la IA de Google como "una parodia DEI sin sentido" (DEI significa 'Diversidad, Equidad e Inclusión'). En una publicación anterior en X ayer, Google confirmó que era "consciente" de que la IA estaba produciendo "inexactitudes en algunas representaciones de generación de imágenes históricas", agregando en un comunicado: "Estamos trabajando para mejorar este tipo de representaciones de inmediato. La generación de imágenes Al de Gemini produce una amplia gama de personas, lo cual generalmente es algo bueno porque la gente de todo el mundo la usa. Pero está fallando aquí".

Críticas anteriores a herramientas AI generativas de Google

Las herramientas AI generativas producen resultados basados en datos de entrenamiento y otros parámetros, como los pesos del modelo. Estas herramientas han enfrentado críticas más a menudo por producir resultados sesgados de manera más estereotipada, como imágenes de mujeres sexualizadas o al responder a indicaciones de roles laborales de alto estatus con imágenes de hombres blancos.

Una herramienta AI de clasificación de imágenes anterior creada por Google causó indignación en 2015 cuando clasificó incorrectamente a hombres negros como gorilas. La empresa prometió solucionar el problema, pero, como informó Wired unos años después, su "solución" fue simplemente bloquear la tecnología para que no reconociera gorilas en absoluto.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Ética tecnológica

Claude supera a ChatGPT por su ética y responsabilidad

Claude, el asistente de inteligencia artificial de Anthropic, ha ganado popularidad frente a ChatGPT de OpenAI debido a controversias sobre la ética y colaboración con...

Controversia ética

Controversia por designación de Anthropic como riesgo de suministro

La designación de Anthropic como "riesgo de cadena de suministro" por el Departamento de Defensa de EE. UU. ha generado una fuerte reacción en la...

Inteligencia artificial

14.ai transforma el servicio al cliente con inteligencia artificial autónoma

14.ai, una startup respaldada por Y Combinator, está revolucionando el servicio al cliente mediante inteligencia artificial, reemplazando equipos tradicionales con soluciones autónomas. Su enfoque innovador...

Filtrado spam

Google y Airtel combaten el spam en mensajería RCS en India

Google y Airtel se unen en India para combatir el spam en la mensajería RCS, integrando un sistema de filtrado de spam a nivel de...

Controversia ética

Controversia por acuerdo de OpenAI y Defensa de EE. UU

El acuerdo de OpenAI con el Departamento de Defensa de EE. UU. ha generado controversia por su rapidez y preocupaciones éticas sobre el uso de...

Ética popularidad

Claude supera a ChatGPT con enfoque ético en IA

Claude, el chatbot de Anthropic, ha superado a ChatGPT en popularidad, impulsado por un enfoque ético en su desarrollo. Las negociaciones con el Pentágono han...

Acuerdo militar

OpenAI colabora con Defensa de EE. UU. en IA clasificada

OpenAI ha firmado un acuerdo con el Departamento de Defensa de EE. UU. para utilizar su IA en redes clasificadas, generando tensiones con Anthropic. A...

Ética tecnológica

EE. UU. prohíbe productos de Anthropic por ética en IA

El presidente de EE. UU. ha ordenado a las agencias federales cesar el uso de productos de Anthropic tras un conflicto por la ética en...