El análisis difundido por Surfshark sitúa a los trabajadores en el centro de las consecuencias de la rápida integración de la inteligencia artificial en las organizaciones. El estudio cifra en más de 700 los incidentes y riesgos relacionados con la IA que han afectado a trabajadores, con Estados Unidos concentrando casi un tercio de los casos. Según la compañía, el 72% de los casos notificados causó daños de naturaleza económica o patrimonial, una tendencia que se refleja también en las cifras de empleo.
Entre enero y septiembre de 2025, el AI Incidents and Hazards Monitor (AIM) registró más de 3.200 incidentes de IA denunciados públicamente, con una media de doce al día. De acuerdo con ese recuento, más de 700 de esos sucesos afectan específicamente a empleados y acumulan casi 16.000 artículos publicados en medios de todo el mundo. En el desglose geográfico, EE.UU. suma 225 incidentes (aproximadamente un tercio del total), seguido de China (49), y Ucrania y el Reino Unido (38 cada uno). El informe añade que Estados Unidos presenta la puntuación más baja en el Índice de Derechos Laborales, lo que, a juicio del análisis, apunta a una mayor vulnerabilidad de su fuerza laboral.
En paralelo, diversos artículos contabilizan al menos 200.000 despidos atribuidos a la IA durante los tres primeros trimestres de 2025, con impacto en funciones como atención al cliente, administración de ventas, TI, diseño, experiencia de usuario y redacción publicitaria. Las cifras podrían ser superiores, ya que no todos los recortes se vinculan de forma explícita a la IA y no se incluyen puestos que nunca llegaron a ofertarse.
El impacto no se limita al empleo. Según Tomas Stamulis, director de seguridad de Surfshark, aunque el aprendizaje automático puede mejorar los procesos al automatizar tareas repetitivas y analizar rápidamente grandes conjuntos de datos, la rápida integración de la IA plantea nuevos riesgos para la seguridad, la privacidad e incluso el empleo.
“El auge de la IA está empezando a alcanzar su punto álgido, con herramientas de IA que ahora se adoptan ampliamente en toda la sociedad y se integran en las empresas para mejorar la productividad. Sin embargo, esta rápida adopción puede conllevar importantes retos de gestión de riesgos. Los sistemas de IA se basan en la recopilación de grandes cantidades de datos y en algoritmos complejos, lo que puede crear vulnerabilidades en materia de privacidad, seguridad y cumplimiento normativo. Sin procesos sólidos, las empresas corren el riesgo de exponer información confidencial, infringir los derechos de propiedad intelectual y operar fuera de los límites legales y éticos.”
Varios episodios de alta repercusión mediática ilustran las implicaciones económicas y éticas del fenómeno. Entre ellos, la cobertura de una demanda por el uso de libros pirateados en el entrenamiento de modelos de IA, que generó 471 artículos. Además de la protesta silenciosa de más de 1.000 músicos contra cambios en la ley de derechos de autor del Reino Unido (que facilitarían el uso de material protegido en el entrenamiento de IA), con 431 publicaciones; y las informaciones sobre planes de Amazon para reducir puestos corporativos debido a la automatización y la IA generativa, mencionadas en 343 artículos. Estos casos se citan como ejemplos del alcance del impacto económico y social asociado a la expansión de la IA.
En materia de ciberseguridad y protección de datos, Surfshark advierte de que las herramientas de IA procesan grandes conjuntos de información que a menudo incluyen datos personales sensibles, con el consiguiente riesgo de filtraciones, accesos no autorizados y usos indebidos. Se menciona, además, la vulnerabilidad de modelos mal protegidos ante ciberataques, manipulaciones o inyecciones de instrucciones que podrían provocar fallos operativos. La conclusión del análisis es que, sin salvaguardas, transparencia y una gestión integral del riesgo, la IA puede comprometer la integridad de los datos y la privacidad, por lo que se defiende mantener la supervisión humana y no sustituir a los trabajadores.



