El auge de la IA en las empresas aumenta los riesgos por su uso no autorizado

A medida que crece el uso de IA en las empresas, también lo hacen los riesgos por su uso no autorizado. Solo uno de cada cuatro empleados asegura que nunca usaría herramientas de IA no aprobadas por su organización.

El ritmo de adopción de herramientas de inteligencia artificial en las empresas no deja de acelerarse, pero esta expansión viene acompañada de una amenaza emergente: el uso no autorizado de estas tecnologías por parte de los propios trabajadores. Según datos recopilados por Stocklytics.com a partir del Technology Perceptions Survey Report 2025 de INTAPP, la mitad de los profesionales ha utilizado herramientas de IA no autorizadas en su lugar de trabajo, exponiendo información corporativa sensible a posibles fugas o usos indebidos.

En 2025, el 56% de las empresas ya han integrado la IA en sus operaciones, mientras que otro 32% está dando sus primeros pasos. Las principales aplicaciones empresariales de estas herramientas incluyen la generación de documentos y la síntesis de información, con una adopción superior al 40% entre los encuestados. Otras áreas con uso significativo son la investigación (36%), el control de calidad (33%) y las consultas por voz (31%).

A pesar de los beneficios en eficiencia y reducción de costes, las compañías se enfrentan a un riesgo creciente desde dentro de sus propios equipos. El estudio muestra que un 24% de los empleados ha utilizado repetidamente herramientas de IA no autorizadas, y otro 26% lo ha hecho de forma ocasional. Además, un 23% de los encuestados admite que las utilizaría si tuviera la oportunidad, lo que deja solo al 25% de los profesionales que rechazarían su uso bajo cualquier circunstancia.

Este comportamiento pone en entredicho la protección de los datos corporativos, ya que muchas de estas herramientas no han sido evaluadas por los departamentos de seguridad ni cumplen con los estándares de privacidad y protección de datos exigidos por las normativas internacionales.

Entre los principales riesgos asociados al uso no autorizado figuran las fugas de información confidencial, las infecciones por malware y la compartición involuntaria de datos con terceros. Todo ello puede comprometer tanto los activos digitales de la empresa como la relación con sus clientes o socios.

El número de usuarios de herramientas de inteligencia artificial está creciendo de forma exponencial. Según estimaciones de Statista, en 2025 hay unos 350 millones de usuarios de IA en todo el mundo, una cifra que triplica la registrada cinco años antes. Se espera que esta cifra supere los 500 millones en 2027 y alcance los 1.100 millones en 2031.

Este crecimiento no solo implica mayor adopción por parte de las empresas, sino también mayor disponibilidad de herramientas accesibles para cualquier usuario. En este contexto, los responsables de TI deben anticiparse a los riesgos derivados del uso autónomo y no autorizado, reforzando tanto las políticas de control de acceso como la formación del personal en buenas prácticas digitales.

La popularización de la IA exige un replanteamiento de la gestión del riesgo interno en las organizaciones, donde la confianza y la supervisión deben equilibrarse para proteger los datos sin frenar la innovación.