Amazon anuncia nuevas herramientas para controlar los modelos de lenguaje y evitar respuestas inapropiadas
En el evento AWS re:Invent que se está celebrando en Las Vegas, el CEO de Amazon Web Services (AWS), Adam Selipsky, ha anunciado una nueva herramienta llamada "Guardrails for Amazon Bedrock". Esta herramienta tiene como objetivo proporcionar un mayor control sobre los modelos de lenguaje utilizados en aplicaciones de inteligencia artificial, permitiendo a las empresas definir y limitar los tipos de lenguaje que un modelo puede utilizar.
En una publicación de blog, Amazon explica que con Guardrails for Amazon Bedrock, las empresas pueden implementar salvaguardias para ofrecer experiencias de usuario relevantes y seguras, alineadas con las políticas y principios de la compañía. Esta herramienta es especialmente útil para evitar respuestas inapropiadas o ofensivas que podrían dañar la reputación de una marca.
Controlando las respuestas de los modelos de lenguaje
La nueva herramienta de Amazon permite a las empresas definir temas que están fuera de los límites del modelo de lenguaje, de modo que no responda a preguntas irrelevantes. Por ejemplo, una empresa de servicios financieros puede evitar que el modelo de lenguaje proporcione consejos de inversión inapropiados que los clientes puedan tomar en serio. Además, es posible filtrar palabras y frases específicas para eliminar cualquier tipo de contenido ofensivo.
Amazon también ofrece la opción de filtrar datos de información personal identificable (PII, por sus siglas en inglés) para evitar que los modelos de lenguaje accedan a datos privados al proporcionar respuestas. Esto es especialmente importante en términos de privacidad y seguridad de los datos.
El desafío de desarrollar inteligencia artificial responsable
Según Ray Wang, fundador y analista principal de Constellation Research, esta herramienta puede ser fundamental para los desarrolladores que trabajan con modelos de lenguaje, ya que les ayuda a controlar las respuestas no deseadas. Wang destaca que uno de los mayores desafíos en la creación de inteligencia artificial responsable es garantizar la seguridad y facilidad de uso. La filtración de contenido y la protección de la información personal son dos de los principales desafíos a los que se enfrentan los desarrolladores. Además, destaca la importancia de la transparencia, explicabilidad y reversibilidad en el desarrollo de modelos de lenguaje.
Disponibilidad y próximos pasos
La función de guardrails anunciada por Amazon está actualmente en versión de prueba. Se espera que esté disponible para todos los clientes el próximo año. Esta herramienta representa un paso importante en el control de los modelos de lenguaje utilizados en aplicaciones de inteligencia artificial, permitiendo a las empresas garantizar respuestas relevantes y seguras para los usuarios, al tiempo que evitan cualquier tipo de contenido inapropiado u ofensivo.
Otras noticias • IA
OpenAI revoluciona la educación con explicaciones visuales dinámicas
OpenAI ha introducido explicaciones visuales dinámicas que transforman la educación, permitiendo a los estudiantes interactuar con conceptos matemáticos y científicos en tiempo real. Esta innovación...
AgentMail transforma la comunicación automatizada con 6 millones de dólares
AgentMail ha revolucionado la comunicación automatizada al ofrecer un servicio de correo electrónico para agentes de inteligencia artificial. Con una financiación de 6 millones de...
YouTube lanza herramienta para detectar deepfakes y combatir desinformación
YouTube ha lanzado una herramienta para detectar deepfakes, permitiendo a funcionarios y periodistas solicitar la eliminación de contenido no autorizado. La compañía busca equilibrar la...
Legora alcanza valoración de 5.550 millones en financiación reciente
Legora, plataforma de inteligencia artificial para el sector legal, ha alcanzado una valoración de 5.550 millones de dólares tras una ronda de financiación de 550...
Google Photos lanza "Ask Photos" y permite búsqueda clásica
Google Photos ha introducido la función "Ask Photos" para buscar imágenes mediante lenguaje natural, pero su recepción ha sido mixta. Ante las críticas, Google ahora...
Thinking Machines Lab y Nvidia impulsan la IA con nuevo acuerdo
Thinking Machines Lab ha firmado un acuerdo estratégico con Nvidia para desarrollar infraestructura de IA, destacando su crecimiento y la creciente demanda en el sector....
YouTube mejora detección de deepfakes para proteger figuras públicas
YouTube ha ampliado su tecnología para detectar deepfakes, permitiendo a figuras públicas solicitar la eliminación de contenidos manipulados. Este enfoque busca equilibrar la libertad de...
Sandbar lanza anillo inteligente Stream para tomar notas fácilmente
La startup Sandbar ha lanzado el anillo inteligente Stream, diseñado para facilitar la toma de notas mediante un micrófono activado por toque. Con una financiación...
Lo más reciente
- 1
Google lanza Gemini en nuevos mercados con innovadoras funcionalidades
- 2
Inteligencia artificial: retos en retención y satisfacción de usuarios
- 3
Coalición Utilize impulsa un sistema energético sostenible y eficiente
- 4
Robo masivo de datos pone en jaque la seguridad gubernamental
- 5
Amazon lanza Health AI, mejora salud pero preocupa privacidad
- 6
IA en apps aumenta cancelaciones un 30% pese a conversiones
- 7
YouTube supera a Disney con 40.4 mil millones en 2025

