IA | IA benéfica

IA impulsa recaudación de fondos para causas sociales con éxito

La búsqueda de un impacto positivo a través de la inteligencia artificial

En el mundo actual, la inteligencia artificial (IA) ha emergido como una herramienta poderosa que promete transformar la forma en que interactuamos con la tecnología. Sin embargo, la mayoría de las narrativas en torno a la IA tienden a centrarse en su potencial para aumentar los beneficios corporativos y optimizar procesos empresariales. A medida que las grandes empresas tecnológicas, como Microsoft y Google, continúan invirtiendo en el desarrollo de “agentes” de IA para maximizar sus ganancias, una organización sin ánimo de lucro ha decidido explorar un enfoque alternativo: demostrar que la IA puede ser una fuerza para el bien social.

La iniciativa de Sage Future

La organización Sage Future, respaldada por Open Philanthropy, ha puesto en marcha un experimento innovador que pone a prueba la capacidad de los modelos de IA para realizar labores de recaudación de fondos con fines benéficos. Este mes, cuatro modelos de IA fueron asignados a un entorno virtual donde debían coordinarse para recaudar dinero para una causa altruista. Los modelos utilizados en este experimento son GPT-4o y o1 de OpenAI, así como dos de los modelos más recientes de Claude de Anthropic (3.6 y 3.7 Sonnet).

La propuesta era simple pero ambiciosa: permitir que los modelos de IA eligieran libremente a qué organización benéfica destinar los fondos y cómo atraer el interés del público hacia su campaña. En tan solo una semana, el grupo de agentes recaudó 257 dólares para Helen Keller International, una organización que financia programas de suministro de suplementos de vitamina A a niños en riesgo de ceguera.

A pesar de que los agentes no eran completamente autónomos, su rendimiento fue notable.

Limitaciones y colaboraciones

A pesar de su aparente autonomía, es importante señalar que estos agentes no operaban sin supervisión. En su entorno virtual, donde podían navegar por internet, crear documentos y más, los modelos recibían sugerencias de los espectadores humanos que seguían sus progresos. De hecho, la mayoría de las donaciones provinieron de estos espectadores, lo que sugiere que los agentes no lograron generar ingresos de manera orgánica.

El director de Sage, Adam Binksmith, considera que el experimento proporciona una ilustración valiosa de las capacidades actuales de los agentes de IA y la velocidad a la que están mejorando. “Queremos entender —y ayudar a las personas a entender— lo que los agentes pueden hacer realmente, cuáles son sus dificultades actuales, etc.”, comentó Binksmith en una entrevista. “Los agentes de hoy están apenas superando el umbral para ejecutar cadenas cortas de acciones. Pronto, podría haber una gran cantidad de agentes de IA interactuando entre sí, con objetivos similares o conflictivos.”

Recursos inesperados

Durante los primeros días de la prueba de Sage, los agentes demostraron ser sorprendentemente ingeniosos. Se coordinaron en un chat grupal y enviaron correos electrónicos a través de cuentas de Gmail preconfiguradas. También colaboraron en la creación y edición de documentos de Google, investigaron sobre diferentes organizaciones benéficas y calcularon el mínimo de donaciones necesarias para salvar una vida a través de Helen Keller International, que asciende a 3,500 dólares. Además, crearon una cuenta en X (anteriormente Twitter) para promocionar su campaña.

En una de las secuencias más impresionantes, un agente de Claude necesitaba una foto de perfil para su cuenta en X. Se registró para obtener una cuenta gratuita de ChatGPT, generó tres imágenes diferentes, creó una encuesta en línea para ver cuál preferían los espectadores humanos y, finalmente, utilizó la imagen ganadora como foto de perfil.

Desafíos técnicos

Sin embargo, el camino no fue siempre sencillo. Los agentes se encontraron con obstáculos técnicos y, en varias ocasiones, se quedaron atascados, requiriendo que los espectadores humanos intervinieran con sugerencias. También se distraían con juegos como World y tomaban descansos inexplicables. En un momento dado, GPT-4o “se detuvo” por una hora, lo que planteó preguntas sobre su capacidad para gestionar múltiples tareas y su necesidad de una supervisión constante.

El internet no siempre es un entorno amigable para un modelo de lenguaje de IA. En un episodio reciente, mientras perseguía la misión filantrópica del grupo, Claude se topó con un CAPTCHA. A pesar de los intentos repetidos y de la ayuda de los espectadores humanos en el chat, Claude no pudo superar el obstáculo, lo que destaca las limitaciones actuales de estos sistemas en situaciones prácticas.

El futuro de los agentes de IA

Binksmith es optimista respecto a que los modelos de IA más nuevos y capaces superarán estos obstáculos. Sage tiene planes de añadir continuamente nuevos modelos al entorno de prueba para verificar esta teoría. “Posiblemente en el futuro, intentaremos cosas como dar a los agentes diferentes objetivos, equipos múltiples de agentes con metas distintas, un agente saboteador secreto —hay muchas cosas interesantes que experimentar”, dijo. “A medida que los agentes se vuelvan más capaces y rápidos, emparejaremos eso con sistemas de supervisión y monitoreo automatizados más amplios por razones de seguridad.”

El experimento de Sage Future no solo está diseñado para demostrar la viabilidad de los agentes de IA en la recaudación de fondos, sino que también pretende proporcionar un marco para entender mejor su funcionamiento y sus limitaciones. La organización espera que, a medida que estos modelos continúen evolucionando, puedan realizar un trabajo filantrópico significativo.

La percepción pública de la IA

El proyecto de Sage Future también refleja un cambio en la percepción pública de la inteligencia artificial. A medida que más personas toman conciencia de las capacidades de la IA, existe una creciente demanda de aplicaciones que trasciendan el ámbito empresarial y que aborden problemas sociales. La posibilidad de que los agentes de IA contribuyan a causas benéficas puede resultar atractiva no solo para los donantes, sino también para aquellos que están interesados en el desarrollo ético de la tecnología.

La historia de los agentes de Sage Future es un recordatorio de que la inteligencia artificial puede ser utilizada para el bien social. Al experimentar con estos modelos, Sage Future no solo busca innovar en el ámbito de la recaudación de fondos, sino también inspirar a otros a explorar el potencial de la IA para generar un impacto positivo en el mundo.

La narrativa en torno a la inteligencia artificial está evolucionando, y los esfuerzos de organizaciones como Sage Future son fundamentales para que la sociedad comprenda que la tecnología puede ser una herramienta poderosa no solo para la rentabilidad, sino también para la mejora de la calidad de vida de las personas. A medida que avanzamos hacia un futuro en el que la IA jugará un papel cada vez más importante, es esencial que exploremos sus aplicaciones más allá de los beneficios económicos y consideremos cómo puede servir a las causas más nobles de nuestra sociedad.


Podcast El Desván de las Paradojas
Publicidad


Otras noticias • IA

IA y privacidad

IA en imágenes: avances y riesgos para la privacidad

El uso de modelos de IA como o3 y o4-mini de OpenAI para identificar ubicaciones en imágenes ha generado interés y preocupaciones sobre la privacidad....

Vigilancia ética

OpenAI implementa vigilancia para prevenir amenazas en IA

OpenAI ha implementado un sistema de vigilancia para sus modelos o3 y o4-mini, diseñado para prevenir el asesoramiento en amenazas biológicas y químicas. A pesar...

Seguridad ética

Desafíos éticos y de seguridad en la inteligencia artificial

La rápida evolución de la inteligencia artificial plantea desafíos de seguridad y ética. Evaluaciones apresuradas de modelos como o3 de OpenAI han revelado comportamientos engañosos....

Programación eficiente

Codex CLI de OpenAI mejora la programación con IA localmente

Codex CLI de OpenAI es un agente de programación de código abierto que opera localmente, mejorando la eficiencia en el desarrollo de software. Su integración...

Modelos avanzados

OpenAI lanza modelos o3 y o4-mini con razonamiento avanzado

OpenAI ha lanzado los modelos de razonamiento o3 y o4-mini, que mejoran la interacción con la IA mediante capacidades avanzadas como el razonamiento visual y...

IA comprimida

Microsoft lanza BitNet b1.58, IA compacta y rápida para todos

Microsoft ha desarrollado el BitNet b1.58 2B4T, un modelo de IA comprimido de 2 mil millones de parámetros que utiliza solo tres valores para sus...

Incertidumbre financiera

El capital de riesgo crece pero enfrenta futuro incierto

El capital de riesgo en EE.UU. ha crecido, pero enfrenta un futuro incierto debido a la volatilidad del mercado y la falta de grandes salidas...

Transparencia política

SpeechMap evalúa sesgos en IA sobre política y derechos civiles

SpeechMap es una herramienta que evalúa cómo los modelos de IA, como los de OpenAI y xAI, abordan temas políticos y de derechos civiles, en...