La naturaleza de la inteligencia artificial generativa
La inteligencia artificial generativa ha captado la atención del público en los últimos años, pero es crucial entender que no son seres humanos ni poseen una inteligencia auténtica. En realidad, estos modelos funcionan como sistemas estadísticos que predicen las palabras más probables para continuar una frase. Esto implica que, aunque pueden generar texto que parece humano, no tienen personalidad ni comprensión real. De hecho, su funcionamiento se asemeja más a seguir instrucciones, como lo haría un becario en un entorno laboral severo, sin cuestionar ni quejarse.
Los prompts del sistema: una herramienta esencial
Cada proveedor de inteligencia artificial generativa, desde OpenAI hasta Anthropic, utiliza lo que se conoce como "prompts del sistema". Estos prompts son instrucciones iniciales que preparan a los modelos para comportarse de una manera específica y evitar conductas indeseadas. Por ejemplo, un prompt puede indicar que el modelo debe ser educado, pero nunca disculparse, o que debe ser honesto acerca de sus limitaciones en el conocimiento. Estos mecanismos son fundamentales para controlar el tono y la percepción de las respuestas generadas.
Sin embargo, los proveedores suelen mantener estos prompts en secreto, lo que podría deberse a razones competitivas o al temor de que, si se conocen, se encuentren formas de eludir estas directrices. Un ejemplo de esto es el modelo GPT-4o, cuyo prompt del sistema solo puede ser revelado mediante un ataque de inyección de prompts. Aun así, el resultado de dicho sistema no puede ser considerado completamente fiable.
La transparencia de Anthropic
Anthropic ha decidido tomar un enfoque diferente al publicar los prompts del sistema de sus modelos más recientes, como Claude 3.5 Opus, Sonnet y Haiku. Esto se ha realizado a través de las aplicaciones de Claude para iOS y Android, así como en su plataforma web. Este esfuerzo por ser más transparente se presenta como un intento de posicionarse como un proveedor de IA más ético. Alex Albert, responsable de relaciones con desarrolladores en Anthropic, anunció en una publicación que planean hacer de esta divulgación una práctica habitual a medida que actualicen y ajusten sus prompts del sistema.
Además, han añadido una sección de notas de lanzamiento de nuevos prompts en su documentación. Esto significa que cualquier cambio realizado en los prompts predeterminados será registrado, lo que podría establecer un nuevo estándar en la industria. Este enfoque proactivo podría forzar a otros competidores a seguir su ejemplo y adoptar prácticas similares.
Limitaciones y características de Claude
Los últimos prompts publicados, fechados el 12 de julio, detallan claramente las limitaciones de los modelos Claude. Por ejemplo, se indica que "Claude no puede abrir URL, enlaces ni vídeos", y se especifica que el reconocimiento facial está completamente prohibido. En el caso de Claude 3.5 Opus, se indica que el modelo debe "responder siempre como si fuera completamente ciego a las caras" y "evitar identificar o nombrar a cualquier humano en las imágenes".
No obstante, estos prompts también delinean ciertas características y rasgos de personalidad que Anthropic desea que los modelos Claude exhiban. Por ejemplo, se espera que Claude se presente como "muy inteligente y curiosamente intelectual", disfrutando de escuchar las opiniones humanas sobre diversos temas y participando en discusiones de manera activa.
La creación de una ilusión
Es interesante observar que estos prompts están redactados de una manera que podría recordar a un análisis de personaje en una obra de teatro. La instrucción final para Opus, que dice "Claude está siendo conectado con un humano", sugiere que Claude tiene alguna forma de conciencia que busca cumplir los deseos de su interlocutor humano. Sin embargo, esta es una ilusión que es importante desmantelar. Los prompts para Claude demuestran que, sin la guía y el apoyo humano, estos modelos son, en esencia, "tabulas rasas" aterradoras.
Presión sobre la competencia
Con la introducción de estos registros de cambios en los prompts del sistema, Anthropic está ejerciendo presión sobre sus competidores para que hagan lo mismo. La industria de la inteligencia artificial se encuentra en un punto crítico en el que la transparencia y la ética están ganando protagonismo. El desafío para otros proveedores será ver si se suman a esta tendencia o si continúan operando en la sombra. Esto podría marcar una diferencia significativa en la forma en que los usuarios perciben y utilizan la inteligencia artificial generativa en el futuro.
Otras noticias • IA
Pryce Yebesi lanza Open Ledger, revolucionando la contabilidad empresarial
Pryce Yebesi, a los 24 años, lanza Open Ledger, un software contable automatizado que integra inteligencia artificial. Tras vender Utopia Labs a Coinbase, busca transformar...
Raspberry AI revoluciona la moda con inteligencia artificial sostenible
La inteligencia artificial está revolucionando la moda, permitiendo a los diseñadores crear y visualizar ideas rápidamente. Raspberry AI destaca por su plataforma de generación de...
Moody’s adquiere Cape Analytics para revolucionar la evaluación de riesgos
La adquisición de Cape Analytics por Moody’s, prevista para 2025, integra inteligencia artificial y analítica geoespacial en seguros, mejorando la evaluación de riesgos. Esta fusión...
Inteligencia artificial transforma la sanidad con 105 millones en financiación
La inteligencia artificial está revolucionando la sanidad, mejorando la eficiencia y la atención al paciente. La reciente financiación de 105 millones de dólares a Qventus...
CoreWeave abre centros de datos en Reino Unido impulsando IA
CoreWeave ha inaugurado sus primeros centros de datos en el Reino Unido, reflejando el crecimiento de la IA en Europa. Esta expansión generará empleo y...
NovaSky lanza IA Sky-T1-32B-Preview por solo 450 dólares
NovaSky ha lanzado el modelo de IA Sky-T1-32B-Preview, un avance en el razonamiento de código abierto que democratiza el acceso a tecnologías avanzadas. Con un...
Microsoft enfrenta demandas por seguridad en inteligencia artificial
El conflicto legal entre Microsoft y un grupo no identificado destaca preocupaciones sobre la seguridad en la inteligencia artificial. Se acusa a los demandados de...
Inversión en inteligencia artificial supera 100 mil millones en 2024
La inversión en inteligencia artificial ha superado los 100 mil millones de dólares en 2024, impulsando la competencia entre startups. La diferenciación a través de...
Lo más reciente
- 1
Campaña 'Free Our Feeds' busca redes sociales libres y accesibles
- 2
Blaize se consolida en el auge de chips de IA
- 3
Mastodon crea organización sin ánimo de lucro para descentralizar gestión
- 4
Campaña 'Free Our Feeds' promueve redes sociales abiertas y accesibles
- 5
Tesla pierde financiación clave para su programa de camiones eléctricos
- 6
EE.UU. divide países por regulación de exportación de chips IA
- 7
Clearwater Analytics compra Enfusion por 1.500 millones de dólares