Amazon anuncia nuevas herramientas para controlar los modelos de lenguaje y evitar respuestas inapropiadas
En el evento AWS re:Invent que se está celebrando en Las Vegas, el CEO de Amazon Web Services (AWS), Adam Selipsky, ha anunciado una nueva herramienta llamada "Guardrails for Amazon Bedrock". Esta herramienta tiene como objetivo proporcionar un mayor control sobre los modelos de lenguaje utilizados en aplicaciones de inteligencia artificial, permitiendo a las empresas definir y limitar los tipos de lenguaje que un modelo puede utilizar.
En una publicación de blog, Amazon explica que con Guardrails for Amazon Bedrock, las empresas pueden implementar salvaguardias para ofrecer experiencias de usuario relevantes y seguras, alineadas con las políticas y principios de la compañía. Esta herramienta es especialmente útil para evitar respuestas inapropiadas o ofensivas que podrían dañar la reputación de una marca.
Controlando las respuestas de los modelos de lenguaje
La nueva herramienta de Amazon permite a las empresas definir temas que están fuera de los límites del modelo de lenguaje, de modo que no responda a preguntas irrelevantes. Por ejemplo, una empresa de servicios financieros puede evitar que el modelo de lenguaje proporcione consejos de inversión inapropiados que los clientes puedan tomar en serio. Además, es posible filtrar palabras y frases específicas para eliminar cualquier tipo de contenido ofensivo.
Amazon también ofrece la opción de filtrar datos de información personal identificable (PII, por sus siglas en inglés) para evitar que los modelos de lenguaje accedan a datos privados al proporcionar respuestas. Esto es especialmente importante en términos de privacidad y seguridad de los datos.
El desafío de desarrollar inteligencia artificial responsable
Según Ray Wang, fundador y analista principal de Constellation Research, esta herramienta puede ser fundamental para los desarrolladores que trabajan con modelos de lenguaje, ya que les ayuda a controlar las respuestas no deseadas. Wang destaca que uno de los mayores desafíos en la creación de inteligencia artificial responsable es garantizar la seguridad y facilidad de uso. La filtración de contenido y la protección de la información personal son dos de los principales desafíos a los que se enfrentan los desarrolladores. Además, destaca la importancia de la transparencia, explicabilidad y reversibilidad en el desarrollo de modelos de lenguaje.
Disponibilidad y próximos pasos
La función de guardrails anunciada por Amazon está actualmente en versión de prueba. Se espera que esté disponible para todos los clientes el próximo año. Esta herramienta representa un paso importante en el control de los modelos de lenguaje utilizados en aplicaciones de inteligencia artificial, permitiendo a las empresas garantizar respuestas relevantes y seguras para los usuarios, al tiempo que evitan cualquier tipo de contenido inapropiado u ofensivo.
Otras noticias • IA
Midjourney lanza V1, revolucionando vídeos y desafiando derechos de autor
Midjourney ha lanzado V1, un modelo de generación de vídeos que transforma imágenes en secuencias de cinco segundos, ampliando las posibilidades creativas. Sin embargo, enfrenta...
OpenAI termina colaboración con Scale AI, incertidumbre en la industria
OpenAI ha finalizado su colaboración con Scale AI, buscando proveedores de datos más especializados. Esto genera incertidumbre en la industria del etiquetado de datos, mientras...
OpenAI revela hallazgos sobre comportamientos desalineados en IA
Investigadores de OpenAI han descubierto características ocultas en modelos de IA que corresponden a comportamientos desalineados, como la toxicidad. Este hallazgo permite ajustar y redirigir...
xAI en el ojo del huracán por turbinas sin permisos
La empresa xAI enfrenta controversia en Memphis por operar turbinas de gas natural sin permisos, lo que podría agravar la calidad del aire y la...
Google presenta "Search Live" para búsquedas interactivas y fluidas
Google ha lanzado "Search Live", una funcionalidad que permite a los usuarios interactuar con la IA de forma conversacional y fluida, facilitando la búsqueda de...
Digg renace con IA y recompensas para comunidades auténticas
La revitalización de Digg busca crear comunidades online auténticas, alejadas de bots y desinformación. Con una nueva aplicación en fase alpha, incorpora inteligencia artificial y...
Desafíos éticos en la búsqueda de inteligencia artificial general
La búsqueda de la inteligencia artificial general (AGI) plantea desafíos éticos y de gobernanza. Iniciativas como "The OpenAI Files" destacan la necesidad de transparencia y...
Meta ofrece hasta 100 millones por talento en IA
Meta compite ferozmente por talento en inteligencia artificial, ofreciendo hasta 100 millones de dólares en compensación. A pesar de sus esfuerzos, OpenAI retiene a sus...
Lo más reciente
- 1
Borderless impulsa inversiones de la diáspora africana en startups
- 2
Spotify aún no lanza audio sin pérdidas tras cuatro años
- 3
Wix adquiere Base44 por 80 millones, éxito en apps sin código
- 4
Paternidad y AI: desafíos y oportunidades en la crianza moderna
- 5
Multiplier revoluciona servicios profesionales con adquisición y AI
- 6
Base44, la startup israelí que brilla en el ecosistema tecnológico
- 7
Zoox inaugura planta en California para producir robotaxis autónomos