Google y Microsoft admiten errores en sus chatbots impulsados por GenAI
En una reciente polémica, los chatbots de Google y Microsoft, Gemini y Copilot respectivamente, han demostrado tener fallos al proporcionar información incorrecta sobre el resultado del Super Bowl de 2024. Estos chatbots, alimentados por modelos de inteligencia artificial conocidos como GenAI, han generado estadísticas ficticias y han afirmado que el partido ya se ha celebrado, lo que ha generado confusión entre los usuarios.
Estadísticas inventadas y resultados contradictorios
Según un hilo de Reddit, Gemini ha respondido preguntas sobre el Super Bowl LVIII como si el juego ya hubiera concluido. Además, ha ofrecido estadísticas detalladas sobre el rendimiento de los jugadores, atribuyendo a Patrick Mahomes, mariscal de campo de los Kansas Chiefs, 286 yardas de carrera, dos touchdowns y una intercepción. Estas cifras contrastan con las 253 yardas de carrera y un touchdown atribuidas a Brock Purdy, mariscal de campo de los 49ers de San Francisco.
Por otro lado, Copilot, el chatbot de Microsoft, también ha afirmado que el partido ha terminado y ha proporcionado una cita errónea que indica que los 49ers ganaron el partido con un marcador final de 24-21. Estos errores han llevado a los usuarios a cuestionar la precisión de los chatbots impulsados por GenAI.
Limitaciones de los modelos de GenAI
Estos incidentes ponen de manifiesto las limitaciones de los modelos de inteligencia artificial como GenAI. Estos modelos no poseen una inteligencia real y su funcionamiento se basa en el análisis de patrones y probabilidades. A partir de un gran número de ejemplos, como textos extraídos de la web, los modelos aprenden a determinar la probabilidad de que ocurra cierta información en función del contexto.
Aunque esta aproximación basada en la probabilidad funciona bien a gran escala, no garantiza la veracidad de la información generada. Los modelos de lenguaje pueden producir texto gramaticalmente correcto pero sin sentido, o incluso difundir información falsa debido a inexactitudes en los datos de entrenamiento.
Admisión de errores por parte de Google y Microsoft
Tanto Google como Microsoft reconocen que sus aplicaciones basadas en GenAI no son perfectas y están sujetas a cometer errores. Sin embargo, estas admisiones se encuentran en letras pequeñas y pueden pasar desapercibidas para los usuarios.
Si bien el caso del Super Bowl falso puede parecer inofensivo, es un recordatorio de la necesidad de verificar las declaraciones realizadas por los chatbots de GenAI. Estos chatbots carecen de malicia y no comprenden el concepto de verdad o falsedad. Simplemente han aprendido a asociar ciertas palabras o frases con conceptos específicos, incluso si esas asociaciones no son precisas.
En conclusión, los incidentes protagonizados por Gemini y Copilot demuestran la importancia de no depositar una confianza ciega en los chatbots impulsados por GenAI. Aunque estos modelos de inteligencia artificial han avanzado significativamente, todavía tienen limitaciones y pueden generar información errónea. Por lo tanto, es fundamental que los usuarios verifiquen la información proporcionada por estos chatbots y no la den por sentada.
Otras noticias • IA
Google lanza caché implícito en API Gemini para ahorrar costos
Google ha introducido el "caché implícito" en su API Gemini, permitiendo ahorros de hasta el 75% en costos de uso de IA. Esta funcionalidad automática...
Google refuerza la seguridad de Chrome con inteligencia artificial
Google ha mejorado la seguridad de Chrome con inteligencia artificial, implementando Gemini Nano para detectar estafas en tiempo real y ofreciendo protección avanzada contra phishing....
Clay alcanza valoración de 1.5 mil millones con cultura colaborativa
Clay, una startup de automatización de ventas, ha crecido rápidamente, alcanzando una valoración de 1.5 mil millones de dólares. Su enfoque en la participación de...
Inteligencia artificial revoluciona comercio electrónico con nuevas herramientas
La inteligencia artificial está transformando el comercio electrónico, como demuestra la herramienta "Enhance My Listing" de Amazon, que optimiza listados de productos. Aunque ofrece eficiencia,...
Concisión en IA aumenta riesgo de respuestas incorrectas según estudio
Un estudio de Giskard revela que la concisión en las respuestas de IA puede aumentar la probabilidad de "alucinaciones" o información incorrecta. Esto plantea un...
Fidji Simo es la nueva CEO de Aplicaciones en OpenAI
Fidji Simo asume como nueva CEO de Aplicaciones en OpenAI, destacando su experiencia en monetización y desarrollo de productos. Su liderazgo promete impulsar la innovación...
Fastino democratiza la IA con modelos accesibles y eficientes
Fastino, una startup de Palo Alto, ha desarrollado modelos de inteligencia artificial más pequeños y específicos, accesibles a empresas sin grandes inversiones. Con 17,5 millones...
Anthropic lanza API para búsquedas web con IA Claude
Anthropic ha lanzado una nueva API que permite a su modelo de IA, Claude, realizar búsquedas en la web, ofreciendo información actualizada. Esta funcionalidad brinda...
Lo más reciente
- 1
Ciberataque a SK Telecom afecta a 23 millones de clientes
- 2
Microsoft prohíbe DeepSeek por preocupaciones de seguridad y desinformación
- 3
Apple supera 10.000 millones en ingresos y enfrenta tensiones
- 4
Sterling Anderson deja Aurora tras lanzamiento de camiones autónomos
- 5
Aurora Innovation amplía camiones autónomos a conducción nocturna y adversa
- 6
OpenAI integra ChatGPT con GitHub para mejorar productividad de desarrolladores
- 7
Fizz demanda a Instacart y Partiful por infracción de marca