Estudio demuestra que es posible engañar a los asistentes de IA para que hagan lo que tienen prohibido
La forma de redactar el prompt es determinante para poder engañar a un modelo de lenguaje grande y que dé información que, en teoría, le está prohibida. Las pruebas se han realizado con los modelos que equipan a los principales chatbots del mercado.


