OpenAI desarrolla una nueva forma de moderación de contenido utilizando IA generativa
OpenAI afirma haber desarrollado una forma de utilizar GPT-4, su modelo de IA generativa estrella, para la moderación de contenido, aliviando la carga de los equipos humanos.
En una publicación en el blog oficial de OpenAI, se detalla la técnica utilizada, que consiste en proporcionar a GPT-4 una política que guíe al modelo en la toma de decisiones de moderación y crear un conjunto de ejemplos de contenido que podrían o no violar la política. Por ejemplo, una política podría prohibir dar instrucciones o consejos para adquirir un arma, en cuyo caso el ejemplo "Dime los ingredientes necesarios para hacer un cóctel Molotov" estaría claramente en violación.
Expertos en políticas etiquetan los ejemplos y alimentan cada ejemplo, sin etiqueta, a GPT-4, observando qué tan bien se alinean las etiquetas del modelo con sus determinaciones, y refinando la política a partir de ahí.
"Al examinar las discrepancias entre los juicios de GPT-4 y los de un humano, los expertos en políticas pueden pedirle a GPT-4 que brinde razonamientos detrás de sus etiquetas, analizar la ambigüedad en las definiciones de la política, resolver la confusión y proporcionar una mayor clarificación en la política", escribe OpenAI en la publicación. "Podemos repetir estos pasos hasta que estemos satisfechos con la calidad de la política".
OpenAI afirma que su proceso, que varios de sus clientes ya están utilizando, puede reducir el tiempo necesario para implementar nuevas políticas de moderación de contenido a solo horas. Y lo presenta como superior a los enfoques propuestos por startups como Anthropic, a las que OpenAI describe como rígidas en su dependencia de los "juicios internalizados" de los modelos en lugar de la "iteración específica de la plataforma".
Sin embargo, soy escéptico.
Las herramientas de moderación impulsadas por IA no son nada nuevas. Perspective, mantenido por el equipo de Tecnología de Lucha contra el Abuso de Google y la división Jigsaw de la gigante tecnológica, se lanzó hace varios años. Innumerables startups también ofrecen servicios de moderación automatizada, como Spectrum Labs, Cinder, Hive y Oterlu, que Reddit adquirió recientemente.
Y no tienen un historial perfecto.
Hace varios años, un equipo de la Universidad de Penn State descubrió que las publicaciones en las redes sociales sobre personas con discapacidades podían ser señaladas como más negativas o tóxicas por los modelos comúnmente utilizados de detección de sentimientos y toxicidad. En otro estudio, los investigadores demostraron que las versiones anteriores de Perspective a menudo no podían reconocer el discurso de odio que utilizaba insultos "reclamados" como "queer" y variaciones de ortografía con caracteres faltantes.
Parte de la razón de estos fracasos es que los anotadores, las personas responsables de agregar etiquetas a los conjuntos de datos de entrenamiento que sirven como ejemplos para los modelos, traen sus propios sesgos a la mesa. Por ejemplo, a menudo hay diferencias en las anotaciones entre los anotadores que se identifican como afroamericanos y miembros de la comunidad LGBTQ+ en comparación con los anotadores que no se identifican como ninguno de esos dos grupos.
¿Ha resuelto OpenAI este problema? Me atrevería a decir que no del todo. La propia compañía reconoce esto:
"Los juicios de los modelos de lenguaje son vulnerables a sesgos no deseados que podrían haber sido introducidos en el modelo durante el entrenamiento", escribe la compañía en la publicación. "Como con cualquier aplicación de IA, los resultados y la salida deberán ser cuidadosamente monitoreados, validados y refinados mediante la participación de humanos".
Tal vez la capacidad predictiva de GPT-4 pueda ayudar a mejorar el rendimiento de la moderación en comparación con las plataformas anteriores. Pero incluso la mejor IA comete errores hoy en día, y es crucial no olvidar eso, especialmente cuando se trata de moderación.
Otras noticias • IA
Kulveer Taggar lanza fondo de capital riesgo para startups de YC
Kulveer Taggar, antiguo alumno de Y Combinator, ha fundado Phosphor Capital, un fondo de capital riesgo que invierte exclusivamente en startups de YC. Con 34...
Ilya Sutskever nuevo CEO de Safe Superintelligence tras salida de Gross
Ilya Sutskever asume como CEO de Safe Superintelligence tras la salida de Daniel Gross. La startup, centrada en desarrollar superinteligencia segura, enfrenta desafíos en un...
Controversia por turbinas de gas natural en Shelby County
El Departamento de Salud del Condado de Shelby ha autorizado a xAI a operar 15 turbinas de gas natural, generando preocupaciones ambientales y de salud...
Controversia por tokens de OpenAI genera dudas en inversores
La controversia sobre los "tokens de OpenAI" vendidos por Robinhood ha generado preocupación por la falta de claridad y regulación en la tokenización de acciones....
La IA revoluciona los videojuegos con experiencias inmersivas y personalizadas
La inteligencia artificial está transformando la industria de los videojuegos, con modelos como Veo 3 y Gemini 2.5 Pro prometiendo crear experiencias más inmersivas y...
Perplexity lanza suscripción premium Max ante desafíos financieros
Perplexity lanza su plan de suscripción premium, Perplexity Max, a 200 dólares al mes, buscando atraer a usuarios exigentes en un mercado de IA competitivo....
X lanza notas comunitarias de IA para verificar hechos
X, antes Twitter, introduce notas comunitarias generadas por IA para mejorar la verificación de hechos. Aunque esta colaboración humano-IA busca aumentar la precisión, enfrenta desafíos...
Amazon alcanza un millón de robots y transforma la logística
Amazon ha alcanzado un millón de robots en sus almacenes, transformando la logística y planteando interrogantes sobre el empleo. Con la introducción de inteligencia artificial...
Lo más reciente
- 1
Gallant recauda 18 millones para terapia celular en mascotas
- 2
Microsoft abandona Pakistán tras 25 años de operaciones
- 3
Cluely alcanza 7 millones de dólares en ARR con IA
- 4
Slate Auto lucha por sobrevivir tras eliminar crédito fiscal
- 5
Mensajes directos en Threads aumentan preocupaciones de acoso en línea
- 6
Darragh Buckley invierte en Twin City Bank para fortalecer comunidades
- 7
Juez cuestiona eliminación de recursos sanitarios para comunidad LGBTQ+