IA | Prevención

Google lanza herramientas para combatir la desinformación en imágenes

Google lanza nuevas herramientas para combatir la desinformación en imágenes

Google ha anunciado el lanzamiento de una serie de herramientas diseñadas para proporcionar más información contextual sobre las imágenes y prevenir la propagación de información falsa en las redes sociales. Estas nuevas funciones, denominadas "Acerca de esta imagen", permitirán a los usuarios ver el historial de una imagen, su metadatos y el contexto en el que ha sido utilizada en diferentes sitios web.

Comprender el origen y contexto de las imágenes

Una de las principales características de estas herramientas es la posibilidad de ver cuándo Google Search detectó por primera vez una imagen, lo que permite a los usuarios comprender la recencia del contexto en el que se encuentra. Además, los usuarios también podrán conocer cómo otras personas han descrito la imagen en otros sitios web, lo que ayudará a desmentir cualquier información falsa que se haya difundido.

Google también ha destacado que, cuando esté disponible, los usuarios podrán ver los metadatos de una imagen, incluyendo información que indique si se trata de una imagen generada por inteligencia artificial (IA). La compañía ha señalado que todas las imágenes creadas por Google AI están debidamente marcadas. Además, en octubre, Adobe y otras empresas como Microsoft, Nikon y Leica, lanzaron un símbolo para marcar claramente las imágenes generadas por IA.

Acceso a las nuevas herramientas

Estas nuevas herramientas de imagen están disponibles haciendo clic en el menú de tres puntos que aparece en los resultados de búsqueda de Google Images. También se puede acceder a ellas haciendo clic en la opción "más información sobre esta página" en la herramienta "Acerca de este resultado", que se encuentra en el menú de tres puntos. Google ha afirmado que está explorando más formas de acceder a estas herramientas.

Además, Google ha anunciado que los periodistas y verificadores de hechos aprobados podrán cargar o copiar URL de imágenes para obtener más información sobre ellas utilizando la API de búsqueda de reclamaciones de FaceCheck. En junio, la compañía comenzó a probar características con la herramienta Fact Check Explorer, que permite a los verificadores de hechos explorar comprobaciones de hechos, referencias y otros detalles asociados con una imagen en particular.

Inteligencia artificial generativa y descripción de fuentes

En un esfuerzo por proporcionar más información sobre las fuentes de imágenes, Google está experimentando con inteligencia artificial generativa. Esta tecnología ayudará a describir fuentes como páginas de vendedores desconocidos o blogs desconocidos. La compañía ha señalado que los usuarios que hayan optado por utilizar la experiencia de búsqueda generativa de Search (SGE, por sus siglas en inglés) verán información generada por IA sobre los sitios web en la sección "más información sobre esta página". Esta información generada incluirá citas de la página o sitio en otros sitios web de "alta calidad". Normalmente, la IA de Google proporcionará información cuando no haya detalles ni descripciones en Wikipedia o en el Knowledge Graph de Google.

Con el aumento de la tecnología que permite a los usuarios crear imágenes diferentes utilizando IA generativa, las empresas están trabajando en tecnología para proporcionar más información sobre las imágenes. En junio, Adobe lanzó una herramienta de código abierto para ayudar a las aplicaciones y sitios web a verificar la autenticidad de las imágenes. Por otro lado, X ha lanzado Community Notes, un programa de verificación de hechos colaborativo, para imágenes y videos.

En resumen, Google está tomando medidas para combatir la desinformación en las imágenes y proporcionar a los usuarios más herramientas para verificar la autenticidad y el contexto de las imágenes que encuentran en línea. Con estas nuevas funciones, se espera que los usuarios puedan tomar decisiones más informadas y evitar la propagación de información falsa en las redes sociales.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Colaboración robótica

Neura Robotics y Qualcomm unen fuerzas para revolucionar la robótica

La colaboración entre Neura Robotics y Qualcomm destaca la importancia de unir fuerzas en el desarrollo de soluciones robóticas avanzadas. Esta alianza, centrada en la...

Valoración elevada

Nscale, respaldada por Nvidia, alcanza valoración de 14.600 millones

Nscale, respaldada por Nvidia, alcanza una valoración de 14.600 millones de dólares gracias a su estrategia de integración vertical y financiación significativa. Con proyectos ambiciosos...

Regulación ética

Expertos piden regulación ética para una inteligencia artificial segura

La "Declaración Pro-Humana" aboga por una regulación responsable de la inteligencia artificial (IA) para evitar su uso perjudicial. Reúne a expertos de diversas ideologías, enfatizando...

Renuncia ética

Caitlin Kalinowski renuncia a OpenAI por preocupaciones éticas

Caitlin Kalinowski, ejecutiva de OpenAI, renunció por preocupaciones éticas tras un acuerdo controvertido con el Pentágono sobre el uso de IA en defensa. Su decisión...

Riesgo tecnológico

Defensa de EE. UU. clasifica a Anthropic como riesgo ético

El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo por su negativa a ceder su tecnología para usos militares. Microsoft...

Crecimiento ético

Claude supera a ChatGPT y gana la confianza del público

Claude, el modelo de inteligencia artificial de Anthropic, ha experimentado un crecimiento inesperado en usuarios y descargas, superando a ChatGPT en ciertos aspectos. Su postura...

Chatbots permitidos

Meta abre WhatsApp a chatbots de terceros en Brasil

Meta ha permitido el uso de chatbots de terceros en WhatsApp en Brasil, tras presiones regulatorias de CADE. Aunque esto fomenta la competencia, los altos...

Riesgo suministro

Anthropic clasificada como riesgo por Defensa de EE. UU

El Departamento de Defensa de EE. UU. ha clasificado a Anthropic como un riesgo para la cadena de suministro, lo que podría afectar su colaboración...