IA | Control

Amazon lanza "Guardrails for Amazon Bedrock" para controlar lenguaje AI

Amazon anuncia nuevas herramientas para controlar los modelos de lenguaje y evitar respuestas inapropiadas

En el evento AWS re:Invent que se está celebrando en Las Vegas, el CEO de Amazon Web Services (AWS), Adam Selipsky, ha anunciado una nueva herramienta llamada "Guardrails for Amazon Bedrock". Esta herramienta tiene como objetivo proporcionar un mayor control sobre los modelos de lenguaje utilizados en aplicaciones de inteligencia artificial, permitiendo a las empresas definir y limitar los tipos de lenguaje que un modelo puede utilizar.

En una publicación de blog, Amazon explica que con Guardrails for Amazon Bedrock, las empresas pueden implementar salvaguardias para ofrecer experiencias de usuario relevantes y seguras, alineadas con las políticas y principios de la compañía. Esta herramienta es especialmente útil para evitar respuestas inapropiadas o ofensivas que podrían dañar la reputación de una marca.

Controlando las respuestas de los modelos de lenguaje

La nueva herramienta de Amazon permite a las empresas definir temas que están fuera de los límites del modelo de lenguaje, de modo que no responda a preguntas irrelevantes. Por ejemplo, una empresa de servicios financieros puede evitar que el modelo de lenguaje proporcione consejos de inversión inapropiados que los clientes puedan tomar en serio. Además, es posible filtrar palabras y frases específicas para eliminar cualquier tipo de contenido ofensivo.

Amazon también ofrece la opción de filtrar datos de información personal identificable (PII, por sus siglas en inglés) para evitar que los modelos de lenguaje accedan a datos privados al proporcionar respuestas. Esto es especialmente importante en términos de privacidad y seguridad de los datos.

El desafío de desarrollar inteligencia artificial responsable

Según Ray Wang, fundador y analista principal de Constellation Research, esta herramienta puede ser fundamental para los desarrolladores que trabajan con modelos de lenguaje, ya que les ayuda a controlar las respuestas no deseadas. Wang destaca que uno de los mayores desafíos en la creación de inteligencia artificial responsable es garantizar la seguridad y facilidad de uso. La filtración de contenido y la protección de la información personal son dos de los principales desafíos a los que se enfrentan los desarrolladores. Además, destaca la importancia de la transparencia, explicabilidad y reversibilidad en el desarrollo de modelos de lenguaje.

Disponibilidad y próximos pasos

La función de guardrails anunciada por Amazon está actualmente en versión de prueba. Se espera que esté disponible para todos los clientes el próximo año. Esta herramienta representa un paso importante en el control de los modelos de lenguaje utilizados en aplicaciones de inteligencia artificial, permitiendo a las empresas garantizar respuestas relevantes y seguras para los usuarios, al tiempo que evitan cualquier tipo de contenido inapropiado u ofensivo.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

IA local

Osaurus revoluciona la IA local y en la nube para Apple

Osaurus es un servidor de modelos de lenguaje exclusivo para Apple que permite ejecutar IA de forma local o en la nube, ofreciendo flexibilidad y...

Fuga talento

SpaceXAI pierde más de 50 empleados por presión laboral

SpaceXAI enfrenta una significativa fuga de talento, con más de 50 empleados abandonando la empresa desde su adquisición por SpaceX. La presión laboral, cambios en...

Inteligencia responsable

Campbell Brown lanza Forum AI para combatir desinformación digital

Campbell Brown, exjefa de noticias de Facebook, fundó Forum AI para abordar los desafíos de la inteligencia artificial en la información. Colaborando con expertos, busca...

Dispositivo innovador

Clawdmeter: Innovador dispositivo que fusiona diversión y productividad

El Clawdmeter es un dispositivo de código abierto que monitoriza el uso de Claude Code, combinando diversión y productividad con animaciones nostálgicas. Creado por Hermann...

Conflictos tecnológicos

Alianzas tecnológicas: expectativas desiguales y conflictos en colaboración

Las alianzas tecnológicas, como la de OpenAI y Apple, pueden generar expectativas desiguales y conflictos. La frustración de OpenAI por la integración insatisfactoria de ChatGPT...

Éxito financiero

Cerebras Systems recauda 5.500 millones y dispara acciones un 108%

Cerebras Systems ha recaudado 5.500 millones de dólares en su OPI, con acciones que inicialmente subieron un 108%. La empresa, especializada en chips para IA,...

Contabilidad automatizada

Ian Crosby lanza Synthetic para revolucionar la contabilidad automatizada

Ian Crosby, tras el fracaso de Bench Accounting, lanza Synthetic, una startup que busca automatizar completamente la contabilidad mediante inteligencia artificial. Con 10 millones de...

Transformación digital

Wirestock se convierte en líder de datos para inteligencia artificial

Wirestock ha transformado su modelo de negocio, pasando de ser una plataforma de fotografía a proveedor de datos para inteligencia artificial. Con más de 700,000...