IA | Propaganda tecnológica

Escándalo en Boox revela propaganda china impulsada por IA

Un escándalo en el mundo de los e-readers

La reciente controversia en torno a un popular lector de libros electrónicos ha puesto de manifiesto un problema más amplio relacionado con la influencia de la inteligencia artificial (IA) china en productos estadounidenses. La situación se originó cuando un modelo de lenguaje desarrollado por ByteDance, la empresa matriz de TikTok, fue utilizado en un e-reader llamado Boox, lo que generó un torrente de críticas por la difusión involuntaria de propaganda del gobierno chino.

Los usuarios de Boox comenzaron a compartir capturas de pantalla en Reddit que revelaban cómo el asistente de IA del dispositivo respondía a preguntas sobre China y sus aliados con información que parecía alinearse con la narrativa oficial del gobierno chino. Esta situación provocó un fuerte descontento entre los usuarios, quienes se sintieron engañados y preocupados por las implicaciones de tener una IA que pudiera estar promoviendo ideologías políticas en un producto que esperaban fuera neutral y orientado al entretenimiento.

La IA de ByteDance y sus implicaciones

El modelo de lenguaje en cuestión, conocido como Doubao, es parte de los servicios en la nube de ByteDance, específicamente en su división Volcano Engine. Aunque este modelo se ha diseñado para ser utilizado dentro de China, la utilización de Doubao en un producto vendido en Estados Unidos ha suscitado preocupaciones sobre la regulación y la ética en el uso de tecnologías de IA en mercados internacionales. Un portavoz de ByteDance confirmó que Doubao está destinado únicamente para el uso en el territorio chino, lo que plantea la pregunta de cómo este modelo llegó a ser implementado en un dispositivo disponible en el mercado estadounidense.

En un mundo cada vez más globalizado, la difusión de tecnología no siempre se acompaña de una comprensión adecuada de su contexto cultural y político.

La empresa Onyx International, responsable de la fabricación del e-reader Boox, no ha respondido a las solicitudes de comentarios sobre esta situación, lo que ha incrementado la frustración entre los usuarios y la prensa. La falta de transparencia en este tipo de asuntos es preocupante, especialmente cuando se trata de la interacción de la tecnología con la política y la cultura.

Respuestas controvertidas del asistente de IA

Los usuarios de Reddit que compartieron sus experiencias con el asistente de IA de Boox notaron que las respuestas eran notoriamente sesgadas. En particular, el asistente se negó a reconocer eventos históricos como la masacre de Tiananmen, argumentando que nunca había ocurrido un "supuesto" masacre. Esto no solo resulta alarmante, sino que también plantea cuestiones sobre la responsabilidad de los desarrolladores de tecnología al permitir que sus productos propaguen información errónea o ideologías específicas.

Otro aspecto inquietante fue la forma en que el asistente de IA describía a países como Corea del Norte y Rusia. En lugar de ofrecer un análisis crítico, el asistente se limitaba a destacar sus "roles positivos" en la comunidad internacional, dejando de lado cualquier crítica sobre sus políticas y acciones. Esta tendencia a omitir o suavizar críticas hacia ciertos regímenes mientras se esgrimen acusaciones contra naciones occidentales es un claro indicativo de la influencia de la propaganda estatal.

La tecnología no solo refleja la realidad; también puede moldearla. La capacidad de un modelo de IA para influir en la percepción pública es una responsabilidad que no puede tomarse a la ligera.

La viralidad de la controversia

El post original en Reddit se volvió viral, captando la atención no solo de los usuarios de e-readers, sino también de publicaciones especializadas en IA y creadores de contenido en plataformas como YouTube. Este tipo de atención mediática subraya la importancia de la transparencia y la ética en el desarrollo y uso de tecnologías de IA, especialmente en un contexto donde la desinformación puede tener consecuencias graves.

Al probar el servicio Doubao, varios periodistas y expertos en tecnología corroboraron que las respuestas obtenidas eran muy similares a las que los usuarios de Boox habían compartido en Reddit. Por ejemplo, cuando se le preguntó sobre la situación en Xinjiang, Doubao utilizó la misma terminología que el asistente de Boox, describiendo la situación como un "supuesto genocidio". Este tipo de respuestas no solo es indicativo de un sesgo inherente, sino que también plantea preguntas sobre la formación y los datos utilizados para entrenar estos modelos de IA.

La respuesta de Boox y el futuro incierto

Después de la ola de críticas, Boox aparentemente decidió regresar al uso de GPT-3 de OpenAI a través de Microsoft Azure. Sin embargo, la falta de comunicación oficial por parte de la empresa ha dejado a muchos usuarios preguntándose sobre la situación actual del asistente de IA. En un mercado donde la confianza del consumidor es esencial, la opacidad en la gestión de incidentes como este puede resultar perjudicial para la reputación de la marca.

Los modelos de IA generativa de origen chino han ganado popularidad en los últimos años, pero este incidente resalta los riesgos asociados con su implementación en productos dirigidos a mercados internacionales. Los expertos en tecnología han advertido sobre la necesidad de ser cautelosos al incorporar herramientas de IA que provienen de regímenes con un historial de censura y control de la información.

Advertencias de expertos en IA

El CEO de HuggingFace, Clement Delangue, ha señalado que la naturaleza de los modelos de IA varía significativamente según su origen. En un reciente podcast, Delangue advirtió que un chatbot desarrollado en China no respondería de la misma manera que uno creado en Francia o Estados Unidos, especialmente en lo que respecta a temas delicados como la historia política. Esto plantea un desafío importante para las empresas que buscan integrar tecnología de IA en sus productos sin tener en cuenta el contexto cultural y político en el que operan.

La advertencia de Delangue resuena en un momento en que la IA está cada vez más presente en nuestras vidas cotidianas. Las herramientas de IA tienen el potencial de influir en la percepción pública y, en consecuencia, en la política y la cultura de las sociedades. Por lo tanto, es fundamental que las empresas se responsabilicen por la información que sus productos difunden.

El impacto de la tecnología en la cultura global

La influencia de los modelos de IA en la cultura global es un tema de creciente preocupación. A medida que China avanza en el desarrollo de tecnologías de inteligencia artificial, la posibilidad de que estas herramientas se utilicen para promover ideologías específicas en otros países se vuelve más tangible. La capacidad de un país para proyectar su narrativa a través de la tecnología es un fenómeno que debe ser monitoreado de cerca, especialmente en un contexto donde la desinformación puede tener repercusiones globales.

Las implicaciones de este caso van más allá de un simple problema de un producto defectuoso. Se trata de una cuestión de responsabilidad, ética y el poder de la información en la era digital. Las empresas que desarrollan y distribuyen tecnologías de IA deben tener en cuenta no solo el potencial de sus productos, sino también las repercusiones sociales y culturales que pueden derivarse de su uso.

El camino hacia la regulación

Este escándalo ha abierto la puerta a un debate más amplio sobre la regulación de la inteligencia artificial y su uso en productos de consumo. La necesidad de establecer directrices claras y regulaciones que garanticen que los modelos de IA no se utilicen para difundir propaganda o información sesgada es más urgente que nunca. Los legisladores, las empresas tecnológicas y los consumidores deben trabajar juntos para crear un entorno donde la tecnología sirva como una herramienta para el bien, en lugar de un medio para la manipulación.

La situación del e-reader Boox es un recordatorio de que la tecnología y la política están intrínsecamente ligadas. A medida que avanzamos hacia un futuro donde la inteligencia artificial desempeñará un papel cada vez más importante en nuestras vidas, es esencial que se establezcan salvaguardias para proteger la integridad de la información y la diversidad de pensamiento en un mundo cada vez más interconectado.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

Asistentes inteligentes

Marissa Mayer presenta Dazzle, su nuevo asistente de IA

Marissa Mayer lanza Dazzle, su nuevo proyecto tras cerrar Sunshine, con el objetivo de desarrollar asistentes personales de inteligencia artificial. La empresa ha recaudado 8...

Avatares interactivos

Lemon Slice transforma imágenes en avatares digitales interactivos

Lemon Slice, fundada en 2024, crea avatares digitales interactivos a partir de una sola imagen, utilizando su modelo Lemon Slice-2. Con 10,5 millones de dólares...

Alexa mejorada

Amazon potenciará Alexa+ en 2026 con nuevos servicios integrados

Amazon ampliará las capacidades de Alexa+ en 2026, integrando servicios de Angi, Expedia, Square y Yelp. Esto permitirá a los usuarios gestionar tareas cotidianas mediante...

Energía sostenible

Alphabet compra Intersect Power por 4.750 millones de dólares

Alphabet ha adquirido Intersect Power por 4.750 millones de dólares, reforzando su posición en energías limpias y centros de datos. Este movimiento busca asegurar un...

Resumen anual

OpenAI presenta 'Tu Año con ChatGPT' para usuarios

OpenAI ha lanzado "Tu Año con ChatGPT", una funcionalidad que ofrece a los usuarios un resumen anual personalizado de sus interacciones con el chatbot. Incluye...

Creatividad infantil

Splat transforma fotos en páginas para colorear y crear

Splat es una innovadora aplicación que transforma fotos en páginas para colorear, fomentando la creatividad infantil. Sin publicidad y con un proceso de uso sencillo,...

Apagón caótico

Apagón en San Francisco pone a prueba vehículos autónomos de Waymo

Un apagón masivo en San Francisco dejó varados a vehículos autónomos de Waymo, provocando caos y cuestionando su fiabilidad en emergencias. La empresa suspendió temporalmente...

Regulación IA

Nueva York establece regulaciones para la inteligencia artificial con RAISE Act

El RAISE Act, firmado por la gobernadora de Nueva York, Kathy Hochul, establece un marco regulatorio para la inteligencia artificial, exigiendo transparencia y responsabilidad a...