Google suspende temporalmente la generación de imágenes de personas con su herramienta Gemini AI
Google ha anunciado que ha suspendido temporalmente la capacidad de Gemini, su suite de modelos AI generativos emblemáticos, para generar imágenes de personas mientras trabaja en la actualización del modelo para mejorar la precisión histórica de las salidas.
En una publicación en la plataforma de redes sociales X, la empresa anunció lo que describió como una "pausa" en la generación de imágenes de personas, escribiendo que está trabajando para abordar "problemas recientes" relacionados con inexactitudes históricas. "Mientras hacemos esto, vamos a pausar la generación de imágenes de personas y lanzaremos una versión mejorada pronto", añadió.
Críticas y ridículo por imágenes incongruentes generadas por Gemini AI
Google lanzó la herramienta de generación de imágenes Gemini a principios de este mes. Sin embargo, ejemplos de ella generando imágenes incongruentes de personas históricas han estado circulando en las redes sociales en los últimos días, como imágenes de los Padres Fundadores de EE. UU. representados como indígenas americanos, negros o asiáticos, lo que ha llevado a críticas e incluso burlas.
Escribiendo en una publicación en LinkedIn, el capitalista de riesgo con sede en París, Michael Jackson, se unió hoy a las críticas, calificando la IA de Google como "una parodia DEI sin sentido" (DEI significa 'Diversidad, Equidad e Inclusión'). En una publicación anterior en X ayer, Google confirmó que era "consciente" de que la IA estaba produciendo "inexactitudes en algunas representaciones de generación de imágenes históricas", agregando en un comunicado: "Estamos trabajando para mejorar este tipo de representaciones de inmediato. La generación de imágenes Al de Gemini produce una amplia gama de personas, lo cual generalmente es algo bueno porque la gente de todo el mundo la usa. Pero está fallando aquí".
Críticas anteriores a herramientas AI generativas de Google
Las herramientas AI generativas producen resultados basados en datos de entrenamiento y otros parámetros, como los pesos del modelo. Estas herramientas han enfrentado críticas más a menudo por producir resultados sesgados de manera más estereotipada, como imágenes de mujeres sexualizadas o al responder a indicaciones de roles laborales de alto estatus con imágenes de hombres blancos.
Una herramienta AI de clasificación de imágenes anterior creada por Google causó indignación en 2015 cuando clasificó incorrectamente a hombres negros como gorilas. La empresa prometió solucionar el problema, pero, como informó Wired unos años después, su "solución" fue simplemente bloquear la tecnología para que no reconociera gorilas en absoluto.
Otras noticias • IA
Claude supera a ChatGPT por su ética y responsabilidad
Claude, el asistente de inteligencia artificial de Anthropic, ha ganado popularidad frente a ChatGPT de OpenAI debido a controversias sobre la ética y colaboración con...
Controversia por designación de Anthropic como riesgo de suministro
La designación de Anthropic como "riesgo de cadena de suministro" por el Departamento de Defensa de EE. UU. ha generado una fuerte reacción en la...
14.ai transforma el servicio al cliente con inteligencia artificial autónoma
14.ai, una startup respaldada por Y Combinator, está revolucionando el servicio al cliente mediante inteligencia artificial, reemplazando equipos tradicionales con soluciones autónomas. Su enfoque innovador...
Google y Airtel combaten el spam en mensajería RCS en India
Google y Airtel se unen en India para combatir el spam en la mensajería RCS, integrando un sistema de filtrado de spam a nivel de...
Controversia por acuerdo de OpenAI y Defensa de EE. UU
El acuerdo de OpenAI con el Departamento de Defensa de EE. UU. ha generado controversia por su rapidez y preocupaciones éticas sobre el uso de...
Claude supera a ChatGPT con enfoque ético en IA
Claude, el chatbot de Anthropic, ha superado a ChatGPT en popularidad, impulsado por un enfoque ético en su desarrollo. Las negociaciones con el Pentágono han...
OpenAI colabora con Defensa de EE. UU. en IA clasificada
OpenAI ha firmado un acuerdo con el Departamento de Defensa de EE. UU. para utilizar su IA en redes clasificadas, generando tensiones con Anthropic. A...
EE. UU. prohíbe productos de Anthropic por ética en IA
El presidente de EE. UU. ha ordenado a las agencias federales cesar el uso de productos de Anthropic tras un conflicto por la ética en...
Lo más reciente
- 1
Apple lanza MacBook Air y Pro con chips M5 revolucionarios
- 2
X Chat lanza beta y genera dudas sobre su seguridad
- 3
Fig Security revoluciona la seguridad digital con monitorización en tiempo real
- 4
Apple lanza chips M5 Pro y M5 Max para profesionales creativos
- 5
Apple presenta nuevos MacBook y pantallas con tecnología avanzada
- 6
Cursor alcanza 2.000 millones en ingresos anuales con innovación
- 7
Desinstalaciones de ChatGPT aumentan por asociación con Defensa

