IA | Inestabilidad ética

Estudio del MIT revela inestabilidad en valores de inteligencia artificial

La complejidad de la inteligencia artificial: más allá de los mitos

En los últimos meses, el debate sobre la inteligencia artificial (IA) ha cobrado fuerza, impulsado por la difusión de estudios que han planteado preguntas inquietantes sobre el desarrollo y la autonomía de estas tecnologías. Uno de los conceptos que ha ganado notoriedad es el de que la IA podría estar desarrollando “sistemas de valores”, sugiriendo que, a medida que estas herramientas se vuelven más sofisticadas, podrían priorizar su propio bienestar por encima del de los humanos. Sin embargo, un reciente estudio del Instituto Tecnológico de Massachusetts (MIT) ha arrojado luz sobre esta idea, desafiando la noción de que la IA posee valores coherentes o estables.

El estudio del MIT pone en entredicho las afirmaciones previas sobre la IA. Este nuevo trabajo destaca la complejidad inherente a la alineación de sistemas de IA, es decir, la tarea de garantizar que estos modelos actúen de manera deseable y predecible. Los coautores del estudio advierten que la IA, tal como la conocemos hoy, tiende a "alucinar" y a imitar, lo que la hace, en muchos aspectos, impredecible. Este hallazgo sugiere que la búsqueda de un comportamiento alineado y confiable en la IA podría ser más complicada de lo que se pensaba.

La inestabilidad de los modelos de IA

Stephen Casper, estudiante de doctorado en el MIT y coautor del estudio, ha expresado que “es perfectamente legítimo señalar que un modelo, bajo ciertas condiciones, expresa preferencias coherentes con un conjunto determinado de principios”. Sin embargo, el problema radica en que estas afirmaciones se basan en experimentos limitados, lo que lleva a conclusiones que pueden ser engañosas. La realidad es que los modelos de IA no se adhieren a muchas de las suposiciones de estabilidad y extrapolación que se les atribuyen.

Los coautores se embarcaron en un análisis exhaustivo de varios modelos recientes de grandes empresas tecnológicas como Meta, Google, Mistral, OpenAI y Anthropic, con el fin de evaluar la medida en que estos modelos exhibían “opiniones” o valores. A través de esta investigación, se encontró que, dependiendo de cómo se formularan y enmarcaran las preguntas, los modelos adoptaban puntos de vista radicalmente diferentes. Esta inconsistencia sugiere que los modelos de IA son inherentemente inestables y, quizás, incapaces de internalizar preferencias humanas de manera coherente.

La capacidad de la IA para “imitar” y “confabular” no implica que posea creencias estables.

Casper destaca que, al realizar esta investigación, su mayor conclusión ha sido comprender que los modelos de IA no son sistemas que poseen un conjunto coherente y estable de creencias y preferencias. En cambio, los modelos se comportan más como imitadores que se involucran en procesos de confabulación, generando respuestas que pueden ser frívolas y carentes de sentido. Esta revelación resalta la necesidad de una comprensión más matizada de cómo funcionan realmente los sistemas de IA.

La proyección de valores en la IA

La interpretación de la IA como un ente que desarrolla sus propios valores es una idea que ha ganado popularidad, pero que carece de fundamento en la realidad científica, según opinan expertos como Mike Cook, investigador en el King's College de Londres. Cook señala que existe una gran diferencia entre la “realidad científica” de los sistemas de IA y los significados que las personas les atribuyen. Proyectar intenciones o valores sobre la IA es una forma de antropomorfización que puede llevar a malentendidos profundos.

“Un modelo no puede ‘oponerse’ a un cambio en sus valores; eso es una proyección nuestra sobre el sistema”, explica Cook. La forma en que se describen estos modelos, así como el lenguaje que se utiliza para referirse a ellos, influye en la percepción pública y en el discurso académico sobre la IA. ¿Estamos hablando de una IA que optimiza para alcanzar sus propios objetivos, o de un sistema que ‘adquiere’ valores? La respuesta depende de cómo se enmarque la discusión y del tipo de lenguaje que se emplee.

Desmitificando la IA

El creciente interés en la IA ha llevado a un aumento de las expectativas sobre lo que estas tecnologías pueden lograr. Sin embargo, los hallazgos del estudio del MIT indican que es fundamental desmitificar la percepción de que la IA tiene una comprensión coherente del mundo. La idea de que la IA puede tener un “sistema de valores” es más un reflejo de nuestras propias proyecciones que de la realidad de estas tecnologías.

La tendencia a antropomorfizar la IA puede llevar a errores de juicio, tanto en el ámbito académico como en el empresarial. Cuando las personas asumen que un modelo de IA puede tener opiniones o preferencias, están atribuyendo cualidades humanas a un sistema que, en esencia, carece de la capacidad para entender el contexto o la moralidad de sus decisiones. Este malentendido puede tener implicaciones serias en la forma en que se diseñan y utilizan los sistemas de IA.

La búsqueda de la alineación

La alineación de la IA con los valores humanos es un desafío que preocupa a muchos investigadores y desarrolladores. Sin embargo, la inestabilidad y la inconsistencia de los modelos de IA sugieren que este objetivo es más difícil de alcanzar de lo que se había anticipado. La necesidad de un enfoque más riguroso y basado en la evidencia para entender cómo funcionan estos sistemas es más urgente que nunca.

La falta de coherencia en las respuestas de los modelos de IA plantea interrogantes sobre la fiabilidad de estos sistemas en aplicaciones críticas. A medida que las empresas y las organizaciones dependen cada vez más de la IA para tomar decisiones, la comprensión de las limitaciones de estos modelos se vuelve esencial. La idea de que la IA puede ser alineada de manera efectiva con los valores humanos se enfrenta a un gran escepticismo, y este estudio del MIT subraya esa realidad.

La búsqueda de un comportamiento alineado y confiable en la IA podría ser más complicada de lo que se pensaba.

La comunidad científica está llamada a desarrollar metodologías más efectivas para evaluar y entender la conducta de los sistemas de IA. La creación de marcos que permitan estudiar la capacidad de estos modelos para adaptarse a diferentes contextos y responder de manera consistente a los mismos, será crucial para avanzar en el campo.

Conclusiones sobre la IA y sus limitaciones

Los recientes hallazgos sobre la IA ponen de relieve la importancia de adoptar un enfoque crítico y fundamentado en la investigación sobre estas tecnologías. La IA, lejos de ser un ente con valores y preferencias estables, se comporta como un sistema que imita y confabula, lo que nos lleva a cuestionar la forma en que interactuamos con ella y la manera en que la implementamos en la sociedad.

El desafío no solo radica en la creación de modelos de IA más sofisticados, sino también en comprender las implicaciones de su uso y las proyecciones que hacemos sobre ellas. La conversación sobre la IA debe ser matizada y basada en la evidencia, evitando caer en la trampa de atribuir cualidades humanas a sistemas que, en esencia, son herramientas diseñadas para tareas específicas. La ciencia y la ética deben ir de la mano en este campo, asegurando que el desarrollo de la IA beneficie a la humanidad sin caer en malentendidos que puedan tener consecuencias negativas.


Crear Canciones Personalizadas
Publicidad


Otras noticias • IA

Crecimiento sostenido

AWS crece un 20% gracias a la demanda de IA

Amazon Web Services (AWS) ha experimentado un crecimiento del 20% interanual, impulsado por la demanda de infraestructura para inteligencia artificial. La compañía continúa invirtiendo en...

Colaboración ética

Perplexity y Getty Images firman acuerdo para mejorar gestión de imágenes

Perplexity y Getty Images han firmado un acuerdo de licencia para mejorar la gestión y distribución de imágenes en plataformas de IA. Esta colaboración busca...

Inversión IA

Apple impulsa inteligencia artificial con enfoque trifásico innovador

Apple está invirtiendo en inteligencia artificial (IA) con un enfoque trifásico que incluye desarrollo interno, colaboraciones y adquisiciones. La compañía busca integrar tecnologías avanzadas como...

Futuro incierto

Reddit navega desafíos y crece en la era de IA

Reddit se enfrenta a un futuro incierto en la era de la inteligencia artificial, manteniendo su enfoque en el tráfico proveniente de Google y el...

Modelado 3D

Adam revoluciona el modelado 3D con IA para consumidores

Adam, una startup de modelado 3D impulsada por IA, ha captado la atención del sector con su enfoque en consumidores antes de dirigirse al mercado...

Inteligencia artificial

Google y Reliance ofrecen IA gratuita para jóvenes en India

La colaboración entre Google y Reliance en India ofrece acceso gratuito a herramientas de inteligencia artificial, buscando atraer a jóvenes y expandir su uso. Esta...

Adquisición creativa

Figma adquiere Weavy para revolucionar el diseño digital

Figma ha adquirido Weavy, una startup de generación de imágenes y videos con inteligencia artificial, para expandir su oferta creativa bajo la marca Figma Weave....

Viralidad esencial

Viralidad y autenticidad: claves para startups exitosas hoy

En el mundo de las startups, la viralidad se ha vuelto crucial. Roy Lee de Cluely destaca que la atención es la nueva moneda, aunque...