Sentado en la cafetería viéndote trabajar: tu personalidad reflejada por agentes de IA

Imagina una versión digital de ti mismo que responda exactamente como lo harías en el 85% de las situaciones. ¿Te parece fascinante? ¿O tal vez un poco inquietante? Eso es precisamente lo que afirman haber conseguido investigadores de Google y la Universidad de Stanford.
7 de enero, 2025

En lo que sólo puede describirse como el próximo episodio de Black Mirror (pero en el mundo real), científicos han creado agentes simuladores de personalidad, o «réplicas de IA», basados en las historias de vida y los valores de 1.052 personas reales.

Para entrenar los modelos de IA generativa encargados de llevar a cabo estas tareas, se utilizaron entrevistas muy minuciosas, que permitieron diseñar las IAs para imitar el comportamiento humano con una precisión que sin duda levantará ampollas, tanto entre los entusiastas como entre los detractores.

Una vez entrenados, los agentes digitales se sometieron a una batería de pruebas, desde encuestas de personalidad hasta juegos económicos como el infame «Juego del Dictador». En el 85% de los casos, los resultados de los agentes coincidieron sorprendentemente con los de sus homólogos humanos. Por supuesto, no todo fue perfecto: aunque las réplicas brillaron en las pruebas de personalidad, les costó más desenvolverse en los entresijos sociales de los juegos de toma de decisiones económicas.

Posibilidades infinitas (¿o sólo más experimentos éticos grises?)

Los investigadores sostienen que esta tecnología podría ser una herramienta revolucionaria para estudiar el comportamiento humano. Imaginemos un laboratorio virtual en el que podamos predecir reacciones a políticas públicas, analizar el impacto del lanzamiento de grandes productos o incluso modelar respuestas a crisis sociales, todo ello sin enfrentarnos a los retos éticos y logísticos de tratar con participantes humanos reales.

En un mundo en el que simular emociones humanas se está convirtiendo en el pasatiempo favorito de los gigantes tecnológicos, este enfoque ofrece algo innegablemente práctico. Después de todo, ¿a quién no le gustaría disponer de una legión de «mini-yo» para tomar decisiones, mientras lo observa todo desde la distancia con un café en la mano?

Pero la cuestión es la siguiente: ¿estas simulaciones nos ayudan realmente a comprender mejor el mundo, o se limitan a crear sofisticadas copias que, en la práctica, nos hacen aún más prescindibles?

Un pantano ético

Si te sientes un poco inquieto, no eres el único. Los propios autores del estudio reconocen que esta tecnología se acerca peligrosamente al territorio de los «deepfakes» y otras aplicaciones menos éticas. Imagina un agente de IA que replique tu personalidad sin tu consentimiento o, peor aún, que se utilice para manipular a la gente en contextos políticos y sociales delicados.

La ironía, por supuesto, es que la misma tecnología que promete ayudarnos a comprender mejor la sociedad puede utilizarse para amplificar sus peores instintos. Tal vez sea aquí donde la inteligencia humana sigue triunfando sobre la artificial, al menos, por el momento.

El futuro: ¿la identidad como servicio?

Uno de los autores del estudio, citado por Live Science, resume bien el futuro que promete (o amenaza) esta tecnología: “Si podemos crear pequeñas versiones de nosotros mismos que tomen las mismas decisiones que tomaríamos nosotros, ése es el futuro”.

Es una visión que nos lleva a preguntarnos: ¿qué significa realmente ser humano? Si nuestra versión digital es tan precisa que puede responder a pruebas y tomar decisiones como nosotros, ¿seguimos siendo nosotros? ¿O simplemente estamos subcontratando nuestra identidad a un software?

Puede que sea un futuro fascinante, pero también exige una profunda reflexión. Y admitámoslo, si hay algo que la IA aún no domina es la ironía de la condición humana, al menos de momento. Estate atento al próximo paso o, quizás, tu clon digital lo lea por ti.