Amazon anuncia nuevas herramientas para controlar los modelos de lenguaje y evitar respuestas inapropiadas
En el evento AWS re:Invent que se está celebrando en Las Vegas, el CEO de Amazon Web Services (AWS), Adam Selipsky, ha anunciado una nueva herramienta llamada "Guardrails for Amazon Bedrock". Esta herramienta tiene como objetivo proporcionar un mayor control sobre los modelos de lenguaje utilizados en aplicaciones de inteligencia artificial, permitiendo a las empresas definir y limitar los tipos de lenguaje que un modelo puede utilizar.
En una publicación de blog, Amazon explica que con Guardrails for Amazon Bedrock, las empresas pueden implementar salvaguardias para ofrecer experiencias de usuario relevantes y seguras, alineadas con las políticas y principios de la compañía. Esta herramienta es especialmente útil para evitar respuestas inapropiadas o ofensivas que podrían dañar la reputación de una marca.
Controlando las respuestas de los modelos de lenguaje
La nueva herramienta de Amazon permite a las empresas definir temas que están fuera de los límites del modelo de lenguaje, de modo que no responda a preguntas irrelevantes. Por ejemplo, una empresa de servicios financieros puede evitar que el modelo de lenguaje proporcione consejos de inversión inapropiados que los clientes puedan tomar en serio. Además, es posible filtrar palabras y frases específicas para eliminar cualquier tipo de contenido ofensivo.
Amazon también ofrece la opción de filtrar datos de información personal identificable (PII, por sus siglas en inglés) para evitar que los modelos de lenguaje accedan a datos privados al proporcionar respuestas. Esto es especialmente importante en términos de privacidad y seguridad de los datos.
El desafío de desarrollar inteligencia artificial responsable
Según Ray Wang, fundador y analista principal de Constellation Research, esta herramienta puede ser fundamental para los desarrolladores que trabajan con modelos de lenguaje, ya que les ayuda a controlar las respuestas no deseadas. Wang destaca que uno de los mayores desafíos en la creación de inteligencia artificial responsable es garantizar la seguridad y facilidad de uso. La filtración de contenido y la protección de la información personal son dos de los principales desafíos a los que se enfrentan los desarrolladores. Además, destaca la importancia de la transparencia, explicabilidad y reversibilidad en el desarrollo de modelos de lenguaje.
Disponibilidad y próximos pasos
La función de guardrails anunciada por Amazon está actualmente en versión de prueba. Se espera que esté disponible para todos los clientes el próximo año. Esta herramienta representa un paso importante en el control de los modelos de lenguaje utilizados en aplicaciones de inteligencia artificial, permitiendo a las empresas garantizar respuestas relevantes y seguras para los usuarios, al tiempo que evitan cualquier tipo de contenido inapropiado u ofensivo.
Otras noticias • IA
Apple lanza Creator Studio para empoderar a creadores digitales
Apple lanza el Apple Creator Studio el 28 de enero, un paquete de suscripción que ofrece acceso a aplicaciones creativas como Final Cut Pro y...
Inteligencia artificial vocal recauda 130 millones y transforma industrias
La inteligencia artificial vocal está en auge, con empresas como Deepgram recaudando 130 millones de dólares. Este crecimiento refleja un interés creciente en mejorar la...
CADE investiga a WhatsApp por prácticas anticompetitivas en API
El CADE de Brasil investiga la política de WhatsApp que prohíbe a terceros usar su API para chatbots, alegando posibles prácticas anticompetitivas. Esta decisión refleja...
Meta invierte en energía renovable para liderar en IA
Meta ha anunciado un plan para expandir su infraestructura energética, invirtiendo en "decenas de gigavatios" para liderar en inteligencia artificial. Este movimiento busca posicionar a...
Amazon presenta Bee, el asistente portátil que aprende de ti
Bee, el nuevo dispositivo de Amazon presentado en el CES 2023, es un asistente personal portátil que graba conversaciones y aprende de sus usuarios. Diseñado...
Claude for Healthcare promete optimizar atención médica y reducir carga
Claude for Healthcare, de Anthropic, introduce herramientas para optimizar la atención médica, reduciendo la carga administrativa de los profesionales de la salud. Aunque promete mejorar...
Cowork de Anthropic democratiza el acceso a la IA Claude
Cowork de Anthropic facilita la interacción con la inteligencia artificial Claude, permitiendo a los usuarios gestionar archivos sin conocimientos técnicos. Esta herramienta democratiza el acceso...
Amazon lanza Alexa+ en CES para revolucionar la IA doméstica
Amazon presentó Alexa+ en el CES, una evolución de su asistente de voz que promete una interacción más intuitiva y autónoma. Con una sólida base...
Lo más reciente
- 1
Hochul propone legalizar robotaxis en Nueva York, excluyendo la ciudad
- 2
Google enfrenta críticas por precios personalizados y falta de transparencia
- 3
Microsoft enfrenta resistencia comunitaria en construcción de centros de datos
- 4
Ammobia revoluciona producción de amoníaco para un futuro sostenible
- 5
Gobierno de India busca mejorar condiciones laborales en economía 'gig'
- 6
Google Veo 3.1 transforma la creación de vídeos verticales
- 7
Inteligencia artificial transforma robótica con modelo 1X World Model

