Con el éxito de los chatbots de inteligencia artificial y, en especial, de ChatGPT, surgió un debate en Internet sobre los modales y la educación que debíamos tener con estas herramientas, con argumentos como que si somos maleducados al conversar con un chatbot, lo acabaremos siendo con las personas. Pero, ahora, los partidarios de los buenos modales con la IA, tienen un argumento más a su favor.
Y es que un reciente estudio de la Universidad de Waseda y el Centro RIKEN, ha puesto de relieve que el uso de un lenguaje cortés al comunicarse con los modelos de lenguaje grandes, puede mejorar significativamente su rendimiento y reducir sesgos.
No obstante, también cabe señalar que el estudio se ha llevado a cabo en tres idiomas (inglés, japonés y chino), y que los resultados han variado ligeramente entre las tres lenguas, lo que hace suponer que no en todos los idiomas, el grado de cortesía a mostrar con el modelo de lenguaje será el mismo para poder obtener los mejores resultados.
Pruebas prácticas y diferencias culturales
Según la investigación, el modelo GPT-3.5 de OpenAI logró una puntuación un 15,6% más alta en pruebas de comprensión lingüística cuando se le formularon los prompts con cortesía. Además, GPT-4 mostró el menor grado de sesgo al recibir indicaciones moderadamente corteses.
Estos hallazgos sugieren que la amabilidad en el lenguaje no solo mejora la calidad de las respuestas, sino que también puede influir en la imparcialidad de los resultados.
El estudio también destacó que el impacto de la cortesía varía entre idiomas, reflejando las diferencias culturales en las normas de comunicación. Esto es algo lógico teniendo en cuenta que los modelos de lenguaje grandes son entrenados con documentación generada por personas y, por lo tanto, intentan imitar el conocimiento humano, siendo el protocolo y la educación un valor universal pero que se materializa de forma distinta para cada cultura.
Así, los modelos GPT-3.5 y 4 en inglés, dieron su mejor resultado con la introducción de prompts moderadamente educados, pero sin llegar a ser excesivamente formales, mientras que el modelo de lenguaje japonés Swallow-70B presentó una mayor sensibilidad a las sutilezas de la cortesía.
Esto último no debe extrañarnos, puesto que la cultura japonesa presenta un protocolo social más observado que en los países anglosajones, con un sistema de cortesía más complejo.
Finalmente, el rendimiento del modelo chino ChatGLM3 sólo se vió afectado por los niveles de cortesía extremadamente altos o bajos, con una variación inferior en los resultados si los prompts eran sujetos a variaciones intermedias en el nivel de ‘educación’ de los prompts.
La educación: también con la IA
Según las conclusiones arrojadas por el estudio, un “por favor” y un “gracias” en los prompts, no nos harán perder mucho tiempo y, en el caso de prompts complicados, tal vez nos den ese punto de diferencia en los resultados que redunde en una mejor calidad del contenido desarrollado.
Robert Caulk, CEO de Emergent Methods, comentó al respecto que «estos modelos de IA no son más que sofisticados dispositivos de reconocimiento de patrones entrenados con grandes cantidades de interacciones humanas, tanto corteses como rudas. Como con cualquier modelo de IA, su entrada se corresponde con lo que vio durante el entrenamiento; la cortesía coincide con respuestas reflexivas, la rudeza con respuestas apáticas».
Por su parte, John Levitt, cofundador de la plataforma de IA empresarial Elvex, añadió que «cuando eres amable con una IA, probablemente esta será amable contigo. Este principio va más allá de la IA; tratar a las personas con amabilidad a menudo genera respuestas similares».
Podemos encontrar el estudio completo aquí.