La adopción de herramientas de IA para programar ha dejado de ser un experimento para convertirse en parte habitual del proceso de desarrollar cualquier software. Y buena prueba de ello son los resultados que exhibe el estudio State of Code Developer Survey, confeccionado a partir de una encuesta online realizada en octubre de 2025 a profesionales que programan o gestionan equipos de desarrollo y que han usado IA durante el último año. La principal conclusión es que el uso diario aparece como norma en una mayoría de quienes ya la han probado.
El estudio sitúa en el 72% la proporción de desarrolladores que emplean herramientas de IA de forma diaria dentro de su flujo de trabajo. En paralelo, los encuestados estiman que, a día de hoy, una parte significativa del código que introducen en repositorios está generado o “muy asistido” por IA, y prevén que esta cuota aumente en los próximos años.
La extensión del uso de la IA para generar código fuente no se limita a los prototipos y, así, la encuesta recoge que también se utiliza en software de producción, incluidas aplicaciones orientadas a cliente y servicios de carácter crítico.
La revisión se convierte en un cuello de botella
El informe describe un patrón repetido: la velocidad de generación de código no se traduce automáticamente en la ganancia de productividad que se ha atribuido a la IA en el debate público. Según los resultados, los desarrolladores declaran una mejora media de productividad personal y un aumento de satisfacción laboral, pero esa aceleración abre una brecha de confianza que obliga a invertir tiempo en revisar lo producido.
El 96% de los desarrolladores no confía plenamente en que el código generado por IA sea funcionalmente correcto, lo que desplaza el esfuerzo hacia la revisión, las pruebas y la corrección, una revisión que no es marginal, ya que casi todos los encuestados afirman dedicar al menos algo de esfuerzo a validar el resultado, y una mayoría califica ese esfuerzo como moderado o sustancial.
El informe añade otro dato relevante, que es el de que una parte significativa de los desarrolladores considera que revisar código generado por IA puede exigir más esfuerzo que revisar código escrito por compañeros, lo que refuerza la idea de un “cuello de botella” en materia de verificación.
Este desajuste también se aprecia al comparar para qué se usa la IA y en qué se considera más eficaz. El estudio refleja que se utiliza de forma masiva para ayudar a desarrollar nuevo código, pero la valoración de su eficacia para dicho caso de uso no crece al mismo ritmo. En cambio, los desarrolladores puntúan mejor la IA en tareas que consisten en explicar o comprender código existente, escribir documentación o generar pruebas, ámbitos en los que el resultado es más fácil de contrastar y el impacto en producción se controla con mayor facilidad.
Herramientas dominantes y adopción sin gobernanza
El presente informe indica que el mercado empieza a concentrarse en un pequeño grupo de herramientas de uso mayoritario, entre las que figuran GitHub Copilot y ChatGPT como las más extendidas, seguidas por otras opciones como Claude, Gemini/Duet o entornos de desarrollo con funciones de IA.
Esta suerte de estandarización convive con fragmentación, ya que la media de herramientas distintas usadas por equipo se sitúa en cuatro, lo que sugiere un escenario de convivencia de soluciones y, en muchos casos, de elección individual.
También es ostensible un patrón de “trae tu propia IA” en el que una parte relevante del acceso a herramientas se realiza con cuentas personales, creando puntos ciegos para la ciberseguridad de la empresa, cumplimiento y control del dato. En dicho contexto, la procedencia del código (quién lo generó, con qué herramienta y bajo qué condiciones) pasa a ser un elemento de gobernanza, no solo una cuestión técnica.
Más allá de los asistentes, el informe identifica un segundo movimiento con el uso de agentes de IA, entendidos como herramientas que automatizan tareas con mayor autonomía que un asistente tradicional. En conjunto, una mayoría afirma haberlos usado o, al menos, haber experimentado con ellos, y un porcentaje menor declara utilizarlos de forma regular.
Los casos de uso que aparecen con mayor frecuencia se alinean con lo que los desarrolladores ya consideran terreno favorable para la IA: documentación, generación y ejecución de pruebas y apoyo a la revisión. En el extremo opuesto, la corrección de vulnerabilidades con agentes figura como el uso menos común, pese a que la seguridad aparece como preocupación prioritaria.
Y, hablando de seguridad, el informe señala que la principal inquietud se relaciona con la exposición de datos sensibles de la empresa o de clientes al usar herramientas de IA, seguida de preocupaciones por la introducción de vulnerabilidades en el código, tanto severas como sutiles, y por cuestiones de licencias o propiedad intelectual.
El estudio también refleja que, en organizaciones grandes, estas preocupaciones tienden a ser más intensas, y aparecen asociadas a temas como la necesidad de cumplir estándares y el riesgo de ataques por inyección de prompts, es decir, instrucciones maliciosas que buscan manipular el comportamiento del sistema.
En deuda técnica (el “coste” acumulado por decisiones de desarrollo que aceleran el corto plazo a cambio de complejidad futura) el panorama es ambivalente, y la mayoría de los desarrolladores identifica impactos negativos, destacando la generación de código que parece correcto pero resulta poco fiable, y la creación de código innecesario o duplicado.
Al mismo tiempo, también se reportan beneficios como las mejoras en la documentación, mayor cobertura de pruebas y apoyo a la optimización o refactorización, lo que sugiere que la IA se usa tanto para “limpiar” como para “ensuciar” en función del control aplicado.
Finalmente, el informe entra a desglosar las diferencias que hay entre organizaciones grandes y pequeñas. En estas últimas, la IA se asocia con mayores ganancias de velocidad y de salida al mercado, pero también con mayor fricción en forma de revisión y reescritura del código generado.
Por su parte, en entornos corporativos grandes, el estudio refleja un enfoque más orientado al control, con una mayor preocupación por el dato y el cumplimiento, y mayor probabilidad de contar con directrices específicas o controles automatizados para la aceptación de código generado por IA.



