Según Google, la IA se consolida como motor de eficiencia operativa para el cibercrimen

Los ciberdelincuentes están escalando sus capacidades ofensivas rápidamente al sistematizar el aprendizaje, la experimentación y la integración en sus flujos de trabajo.
16 de febrero, 2026
Digital Inside_cibercrimen_ciberseguridad

La irrupción de la IA generativa en el ecosistema tecnológico ha trascendido el ámbito corporativo legítimo para adentrarse con fuerza en las operativas de los grupos de amenazas digitales. En su más reciente análisis AI Threat Tracker, el Google Threat Intelligence Group (GTIG) sugiere que, lejos de limitarse a ataques futuristas y autónomos, el uso actual de esta tecnología por parte de los ciberdelincuentes se centra en la mejora pragmática de sus capacidades existentes.

Desde la multinacional estadounidense han observado un patrón de comportamiento que divide estas actividades en tres categorías principales que están redefiniendo la eficiencia del crimen digital: la destilación, la experimentación y la integración.

En una primera instancia, se ha detectado que los adversarios utilizan los modelos de lenguaje para sintetizar y procesar grandes volúmenes de información compleja, una práctica denominada destilación. Esta capacidad permite a los atacantes, independientemente de su nivel de sofisticación, comprender rápidamente tecnologías desconocidas o vulnerabilidades específicas.

La herramienta actúa como un facilitador del conocimiento, permitiendo que un operador resuma documentación técnica extensa o analice brechas de seguridad con una agilidad que antes requería horas de estudio manual. Este fenómeno democratiza el acceso a tácticas avanzadas, permitiendo que actores con menos recursos técnicos puedan ejecutar operaciones que anteriormente estaban fuera de su alcance.

Paralelamente a la adquisición de conocimientos, el sector observa una fase activa de experimentación. Los ciberdelincuentes están poniendo a prueba las capacidades de la inteligencia artificial para el desarrollo de software malicioso y scripts de ataque. Aunque los resultados actuales indican que el código generado a menudo requiere revisión y depuración humana para ser completamente funcional, la tecnología sirve como un potente asistente para la creación de borradores iniciales de malware.

Esto acelera significativamente el ciclo de desarrollo de las amenazas, permitiendo a los atacantes iterar y modificar sus herramientas ofensivas con mayor rapidez para evadir las defensas de seguridad perimetral. Además, esta experimentación se extiende al aprendizaje de nuevos lenguajes de programación, lo que otorga a los atacantes una mayor versatilidad técnica.

Finalmente, el aspecto más preocupante para los responsables de tecnología en las empresas es la integración de estas herramientas a las operaciones en curso. Los grupos ofensivos están incorporando la inteligencia artificial generativa en sus flujos de trabajo de ingeniería social, logrando un nivel de persuasión y realismo difícil de detectar.

La capacidad de generar contenidos textuales y audiovisuales convincentes facilita la creación de campañas de phishing y vishing altamente personalizadas. Ya que, al eliminar los errores gramaticales y de contexto que solían delatar a los atacantes no nativos, la IA eleva la calidad del engaño, haciendo que las estafas sean escalables y mucho más efectivas contra el eslabón humano de la cadena de seguridad.

En definitiva, la tendencia actual muestra que la IA no está reemplazando necesariamente al operador humano, sino que está actuando como un multiplicador de fuerzas. La adopción de estas tecnologías por parte de los adversarios está reduciendo drásticamente los tiempos de preparación y ejecución de los ciberataques. Obligando a a las organizaciones a replantear sus estrategias de defensa no solo en términos de detección técnica, sino también en la velocidad de respuesta ante un adversario que ahora opera con herramientas de productividad de última generación.