Antrophic cambia los términos de uso de Claude para poder utilizar los chats de los usuarios en el entrenamiento de su IA

Al menos por el momento, la activación de dicha opción es voluntaria, es decir, el usuario puede decidir si permite utilizar sus conversaciones para entrenar la IA o no. Hasta ahora, la firma rompía moldes en el sector por no reutilizar las conversaciones de sus usuarios en el entrenamiento de futuras versiones de su IA.
8 de septiembre, 2025

Antrophic, compañía estadounidense dedicada a la inteligencia artificial y creadora de los modelos de lenguaje Claude y el servicio de chatbot homónimo -apreciados sobre todo por los programadores informáticos por la calidad del código fuente que genera-, ha venido siendo también conocida por una política de no utilización de las conversaciones de los usuarios con el chatbot para el entrenamiento de futuras versiones, algo que garantiza mediante las cláusulas de uso que el usuario acepta al darse de alta en el servicio.

Esta característica la diferencia de empresas de la competencia como OpenAI que, al contrario de Antrophic, informa en los términos de uso de ChatGPT que si el usuario los acepta, queda sujeto al uso de sus conversaciones con el chatbot por parte de la firma para entrenar a futuras versiones de sus modelos de lenguaje.

Al no reutilizar las conversaciones Claude también es apreciado por aquellas personas que buscan cierta privacidad y confidencialidad en el uso de la IA, por ejemplo, para proyectos de empresa o para tratar datos sensibles.

Sin cambiar dicha característica, Antrophic ha anunciado que, mediante una revisión de sus términos de uso y de su política de privacidad, va a proponer a los usuarios que compartan con la empresa, sus conversaciones con el chatbot, que las podrá utilizar así para entrenar a futuros modelos.

Cabe incidir en que la medida es total y absolutamente voluntaria, con lo que si el usuario prefiere declinar y no compartir con la firma aquello que habla con la IA, seguirá disfrutando del mismo nivel de privacidad que venía teniendo hasta ahora.

Esta preferencia también puede cambiarse en cualquier momento vía las opciones de configuración de Claude, por lo que si algún usuario acepta compartir sus conversaciones y, luego, se lo piensa mejor, no tendrá ningún problema en revertir la situación. Eso sí, las conversaciones que ya se haya compartido se mantendrán en poder de Antrophic.

Quedarán fuera de este uso las conversaciones entre el usuario y el chatbot que el primero haya borrado de Claude.

La novedad ya se está comunicando a los usuarios a fin de que puedan escoger su preferencia, y los nuevos términos de uso y política de privacidad entrarán en vigor a partir del 28 de septiembre. Las conversaciones previas a dicha fecha no se verán afectadas por esta medida, y Antrophic no las utilizará en ningún momento para entrenar sus modelos de lenguaje.

Las cuentas a las que se aplicarán los cambios son las gratuitas, y los planes Pro y Max incluyendo el uso de Claude Code, y quedarán fuera aquellos servicios sujetos a términos comerciales, incluyendo Claude for Work, Claude for Government, Claude for Education, o su uso vía API incluyendo aquel realizado mediante terceras partes como Amazon Bedrock y Vertex AI de Google Cloud.

Los actuales usuarios verán como les aparece, en algún momento, una ventana pop-up que les pregunta la cuestión, mientras que a los usuarios nuevos que se vayan dando de alta a partir de ahora, se les presentará durante el proceso de inscripción en el servicio.

Desde Antrophic indican que las conversaciones de aquellos usuarios que quieran compartirlas con la empresa, irán destinadas a mejorar las salvaguardas de sus modelos para identificar contenido potencialmente dañino como scams y abuso y, así mismo, no identificar como tal, conversaciones que sean realmente inocuas.

También, y siguiendo con la argumentación de Antrophic, colaborarán a mejorar habilidades de los modelos como la generación de código fuente, el análisis y el razonamiento.

También alarga el período de retención de datos

Además del anuncio de la modificación de los términos de uso y la política de privacidad, Antrophic también ha dado a conocer que extenderá el período de retención de datos hasta los cinco años, pero solamente para el caso de aquellos usuarios que hayan autorizado el uso de sus chats para entrenar los modelos de la firma.

En el caso de cumplir con esta condición, los cinco años de retención de datos se aplicarán solamente a las nuevas conversaciones con Claude que el usuario realice a partir del 28 de septiembre, y no a las anteriores, así como también afectará al feedback que el usuario envíe a la compañía sobre las respuestas de Claude a sus prompts.

En el caso que el usuario haya elegido no compartir sus conversaciones con Antrophic, seguirá aplicando el anterior período de retención de treinta días.