El uso de herramientas de Inteligencia Artificial para facilitar y automatizar tareas se está extendiendo entre las empresas, y con ello crece la demanda de perfiles capaces de trabajar con estos sistemas. El listado ‘Empleos en Auge 2026’ de LinkedIn, citado por CEAC, sitúa los dos primeros lugares más buscados en España, con sendos roles vinculados a esta tecnología: Ingeniero en IA y Director de Inteligencia Artificial.
En paralelo, y según siguen afirmando desde CEAC, la IA empieza a funcionar como un elemento diferencial en los procesos de selección. Cuando dos candidatos cuentan con experiencia y trayectorias similares, el dominio de estas herramientas puede inclinar la balanza a favor del perfil que demuestre más autonomía y capacidad de adaptación al cambio, al asociarse su manejo con mayor productividad en tareas concretas.
El sector formativo también está trasladando esta idea al lenguaje de competencias. Desde Campus Training y otras marcas del grupo Northius, su responsable de Innovación Educativa, Adán Rey, plantea que la IA se está convirtiendo en una habilidad comparable a la del “inglés” en el currículum, con el matiz de que actúa como un multiplicador del desempeño.
En una línea similar, Jordi Navarro, responsable académico de CEAC, la define como una competencia básica y transversal, llamada a complementar capacidades tradicionales como la comunicación, el trabajo en equipo o la gestión del cambio.
Esa transversalidad se refleja en el tipo de usos que se ponen sobre la mesa; Rey señala que el valor no reside en sustituir capacidades como el liderazgo o el talento, sino en amplificarlas, por ejemplo, acelerando el análisis de los datos para la toma de decisiones o reduciendo los tiempos al prototipar ideas con herramientas de IA generativa.
Las cifras citadas en distintos estudios sitúan esta tendencia en el terreno del empleo y la retribución: PWC apunta a un aumento del 38% en las ofertas en los roles más expuestos a la IA y a una diferencia salarial media del 56% frente a posiciones similares que no requieren estas capacidades. Sin embargo, la necesidad de incorporar este talento choca con la disponibilidad real del mercado. Según un estudio de Access Partnership y Amazon Web Services, el 70% de las compañías priorizan contratar profesionales con experiencia en estos sistemas, pero solo el 20% logra encontrar perfiles ya formados.
Ante este desajuste, la formación está reorientando programas y temarios para responder a la necesidad de habilitación y certificación demandada por organizaciones de distintos sectores. La IA deja de plantearse como una materia exclusiva de perfiles de computación para abordarse como un eje aplicable a múltiples disciplinas, desde la salud hasta el ámbito empresarial. Rey lo ejemplifica con la incorporación de usos de IA en diagnóstico por imagen o con el empleo de IA generativa para escalar campañas de marketing.
Navarro amplía el foco al recordar que la tecnología también se integra en el propio proceso de selección, al permitir analizar currículums, evaluar entrevistas y extraer conclusiones con criterios objetivos, evitando sesgos humanos. En este escenario, la enseñanza se desplaza desde la explicación conceptual hacia la aplicación práctica, con el objetivo no ya tanto de definir qué es la IA, como sí de aprender a incorporarla al desempeño profesional en cada especialidad.
En este nuevo currículo, el llamado prompt engineering adquiere UN peso específico, que Navarro describe como un elemento central para mejorar productividad y eficiencia, porque obliga a aprender a “dirigirse” a la herramienta con criterio y precisión. El enfoque se apoya en tres ingredientes que se repiten en su planteamiento: conocimientos de base, práctica y creatividad aplicada al problema.
Aun así, la normalización del uso de la IA viene acompañada de un énfasis en la responsabilidad profesional.
Desde CEAC insisten en que el uso debe ser ético y supervisado, manteniendo claro que la responsabilidad final recae en la persona. Navarro lo resume con un ejemplo de alto impacto: si una IA incurre en un error en un informe legal o médico, el fallo no se atribuye al software, sino al profesional que no revisó el resultado. La IA se presenta así como una herramienta complementaria que no sustituye el criterio del especialista, sino que exige mayor control sobre cómo se utiliza y valida lo generado.



