Amazon anuncia nuevas herramientas para controlar los modelos de lenguaje y evitar respuestas inapropiadas
En el evento AWS re:Invent que se está celebrando en Las Vegas, el CEO de Amazon Web Services (AWS), Adam Selipsky, ha anunciado una nueva herramienta llamada "Guardrails for Amazon Bedrock". Esta herramienta tiene como objetivo proporcionar un mayor control sobre los modelos de lenguaje utilizados en aplicaciones de inteligencia artificial, permitiendo a las empresas definir y limitar los tipos de lenguaje que un modelo puede utilizar.
En una publicación de blog, Amazon explica que con Guardrails for Amazon Bedrock, las empresas pueden implementar salvaguardias para ofrecer experiencias de usuario relevantes y seguras, alineadas con las políticas y principios de la compañía. Esta herramienta es especialmente útil para evitar respuestas inapropiadas o ofensivas que podrían dañar la reputación de una marca.
Controlando las respuestas de los modelos de lenguaje
La nueva herramienta de Amazon permite a las empresas definir temas que están fuera de los límites del modelo de lenguaje, de modo que no responda a preguntas irrelevantes. Por ejemplo, una empresa de servicios financieros puede evitar que el modelo de lenguaje proporcione consejos de inversión inapropiados que los clientes puedan tomar en serio. Además, es posible filtrar palabras y frases específicas para eliminar cualquier tipo de contenido ofensivo.
Amazon también ofrece la opción de filtrar datos de información personal identificable (PII, por sus siglas en inglés) para evitar que los modelos de lenguaje accedan a datos privados al proporcionar respuestas. Esto es especialmente importante en términos de privacidad y seguridad de los datos.
El desafío de desarrollar inteligencia artificial responsable
Según Ray Wang, fundador y analista principal de Constellation Research, esta herramienta puede ser fundamental para los desarrolladores que trabajan con modelos de lenguaje, ya que les ayuda a controlar las respuestas no deseadas. Wang destaca que uno de los mayores desafíos en la creación de inteligencia artificial responsable es garantizar la seguridad y facilidad de uso. La filtración de contenido y la protección de la información personal son dos de los principales desafíos a los que se enfrentan los desarrolladores. Además, destaca la importancia de la transparencia, explicabilidad y reversibilidad en el desarrollo de modelos de lenguaje.
Disponibilidad y próximos pasos
La función de guardrails anunciada por Amazon está actualmente en versión de prueba. Se espera que esté disponible para todos los clientes el próximo año. Esta herramienta representa un paso importante en el control de los modelos de lenguaje utilizados en aplicaciones de inteligencia artificial, permitiendo a las empresas garantizar respuestas relevantes y seguras para los usuarios, al tiempo que evitan cualquier tipo de contenido inapropiado u ofensivo.
Otras noticias • IA
Anthropic modifica precios de Claude Code generando reacciones mixtas
Anthropic ha cambiado su política de precios para Claude Code, limitando el uso de herramientas de terceros y adoptando un sistema de "pago por uso"....
Empresas tecnológicas invierten en gas ante demanda de energía creciente
La creciente demanda de energía por parte de los centros de datos impulsados por la inteligencia artificial ha llevado a las empresas tecnológicas a invertir...
OpenAI reestructura su dirección con cambios clave y renuncias
OpenAI ha realizado cambios significativos en su alta dirección, destacando la reubicación de Brad Lightcap y la llegada de Denise Dresser como directora de ingresos....
Gigantes tecnológicos impulsan carrera por gas natural sostenible
La carrera por el gas natural en la era de la IA está impulsada por la demanda energética de gigantes tecnológicos como Microsoft y Google....
Microsoft presenta tres innovadores modelos de IA centrados en humanos
Microsoft lanza tres nuevos modelos de IA: MAI-Transcribe-1 para transcripción, MAI-Voice-1 para generación de audio y MAI-Image-2 para creación de imágenes. Con un enfoque en...
Google Vids lanza funciones innovadoras para crear contenido fácilmente
Google Vids ha lanzado nuevas funciones que permiten personalizar avatares mediante comandos de texto, generar vídeos cortos con Veo 3.1, exportar directamente a YouTube y...
Meta enfrenta críticas por huella de carbono en expansión
La expansión de Meta con su centro de datos Hyperion plantea dilemas medioambientales al depender de plantas de gas natural, aumentando su huella de carbono....
Filtraciones en Anthropic generan alarma sobre seguridad en IA
Anthropic ha sufrido filtraciones de datos que han expuesto su código fuente, generando preocupaciones sobre la seguridad en la inteligencia artificial. Estos incidentes resaltan la...
Lo más reciente
- 1
Caen ventas de eléctricos nuevos mientras crecen usados sostenibles
- 2
Google lanza aplicación de dictado sin conexión para iOS
- 3
Apple pide revisión tras desacato en conflicto con Epic Games
- 4
Irán amenaza centros de datos en creciente conflicto Medio Oriente
- 5
NHTSA cierra investigación sobre "Actually Smart Summon" de Tesla
- 6
Netflix lanza app de juegos educativos para niños pequeños
- 7
Ciberataque norcoreano expone vulnerabilidades en proyectos de código abierto

