Amazon anuncia nuevas herramientas para controlar los modelos de lenguaje y evitar respuestas inapropiadas
En el evento AWS re:Invent que se está celebrando en Las Vegas, el CEO de Amazon Web Services (AWS), Adam Selipsky, ha anunciado una nueva herramienta llamada "Guardrails for Amazon Bedrock". Esta herramienta tiene como objetivo proporcionar un mayor control sobre los modelos de lenguaje utilizados en aplicaciones de inteligencia artificial, permitiendo a las empresas definir y limitar los tipos de lenguaje que un modelo puede utilizar.
En una publicación de blog, Amazon explica que con Guardrails for Amazon Bedrock, las empresas pueden implementar salvaguardias para ofrecer experiencias de usuario relevantes y seguras, alineadas con las políticas y principios de la compañía. Esta herramienta es especialmente útil para evitar respuestas inapropiadas o ofensivas que podrían dañar la reputación de una marca.
Controlando las respuestas de los modelos de lenguaje
La nueva herramienta de Amazon permite a las empresas definir temas que están fuera de los límites del modelo de lenguaje, de modo que no responda a preguntas irrelevantes. Por ejemplo, una empresa de servicios financieros puede evitar que el modelo de lenguaje proporcione consejos de inversión inapropiados que los clientes puedan tomar en serio. Además, es posible filtrar palabras y frases específicas para eliminar cualquier tipo de contenido ofensivo.
Amazon también ofrece la opción de filtrar datos de información personal identificable (PII, por sus siglas en inglés) para evitar que los modelos de lenguaje accedan a datos privados al proporcionar respuestas. Esto es especialmente importante en términos de privacidad y seguridad de los datos.
El desafío de desarrollar inteligencia artificial responsable
Según Ray Wang, fundador y analista principal de Constellation Research, esta herramienta puede ser fundamental para los desarrolladores que trabajan con modelos de lenguaje, ya que les ayuda a controlar las respuestas no deseadas. Wang destaca que uno de los mayores desafíos en la creación de inteligencia artificial responsable es garantizar la seguridad y facilidad de uso. La filtración de contenido y la protección de la información personal son dos de los principales desafíos a los que se enfrentan los desarrolladores. Además, destaca la importancia de la transparencia, explicabilidad y reversibilidad en el desarrollo de modelos de lenguaje.
Disponibilidad y próximos pasos
La función de guardrails anunciada por Amazon está actualmente en versión de prueba. Se espera que esté disponible para todos los clientes el próximo año. Esta herramienta representa un paso importante en el control de los modelos de lenguaje utilizados en aplicaciones de inteligencia artificial, permitiendo a las empresas garantizar respuestas relevantes y seguras para los usuarios, al tiempo que evitan cualquier tipo de contenido inapropiado u ofensivo.
Otras noticias • IA
Lemon Slice transforma imágenes en avatares digitales interactivos
Lemon Slice, fundada en 2024, crea avatares digitales interactivos a partir de una sola imagen, utilizando su modelo Lemon Slice-2. Con 10,5 millones de dólares...
Amazon potenciará Alexa+ en 2026 con nuevos servicios integrados
Amazon ampliará las capacidades de Alexa+ en 2026, integrando servicios de Angi, Expedia, Square y Yelp. Esto permitirá a los usuarios gestionar tareas cotidianas mediante...
Alphabet compra Intersect Power por 4.750 millones de dólares
Alphabet ha adquirido Intersect Power por 4.750 millones de dólares, reforzando su posición en energías limpias y centros de datos. Este movimiento busca asegurar un...
OpenAI presenta 'Tu Año con ChatGPT' para usuarios
OpenAI ha lanzado "Tu Año con ChatGPT", una funcionalidad que ofrece a los usuarios un resumen anual personalizado de sus interacciones con el chatbot. Incluye...
Splat transforma fotos en páginas para colorear y crear
Splat es una innovadora aplicación que transforma fotos en páginas para colorear, fomentando la creatividad infantil. Sin publicidad y con un proceso de uso sencillo,...
Apagón en San Francisco pone a prueba vehículos autónomos de Waymo
Un apagón masivo en San Francisco dejó varados a vehículos autónomos de Waymo, provocando caos y cuestionando su fiabilidad en emergencias. La empresa suspendió temporalmente...
Nueva York establece regulaciones para la inteligencia artificial con RAISE Act
El RAISE Act, firmado por la gobernadora de Nueva York, Kathy Hochul, establece un marco regulatorio para la inteligencia artificial, exigiendo transparencia y responsabilidad a...
Resolve AI transforma la ingeniería de fiabilidad con automatización innovadora
Resolve AI, una startup valorada en 1.000 millones de dólares, está revolucionando la ingeniería de fiabilidad de sistemas mediante la automatización. Su herramienta autónoma promete...
Lo más reciente
- 1
FCC prohíbe drones extranjeros por seguridad nacional y competencia
- 2
Ciberataques amenazan a la industria aseguradora y sus clientes
- 3
Zoox enfrenta desafíos de seguridad en conducción autónoma
- 4
Robos de criptomonedas alcanzan récord de 2.700 millones en 2025
- 5
Marissa Mayer presenta Dazzle, su nuevo asistente de IA
- 6
Ciberataques amenazan la seguridad de la industria aseguradora en EE.UU
- 7
Ciberataque interrumpe operaciones de La Poste en Francia

