Google ha eliminado de sus principios éticos para el desarrollo de inteligencia artificial, la sección que delimitaba explícitamente qué usos no abordaría. Hasta hace poco, la compañía evitaba usar esta tecnología con fines armamentísticos y de vigilancia, pero ahora dicha prohibición ha caído, con lo que Google se arroga el permiso para desarrollar dichos tipos de soluciones.
La medida ha provocado reacciones diversas en la industria y entre los expertos en ciberseguridad, que ven un riesgo creciente de posibilidades de manipulación masiva o campañas de desinformación. Esto, según señalan voces del sector, podría influir directamente en procesos electorales, mercados financieros o conflictos políticos de alcance global.
Hervé Lambert, Global Consumer Operations Manager de Panda Security, advierte que la eliminación de barreras éticas puede derivar en consecuencias negativas, entre las que figuran la automatización de ataques de phishing y ransomware a gran escala, así como la posibilidad de recopilar datos de forma masiva sin consentimiento de los usuarios.
El riesgo de un uso incontrolado de la IA para espionaje y toma de decisiones sin supervisión humana también suscita inquietudes, ya que podría afectar a infraestructuras críticas como las energéticas, las sanitarias o incluso las militares.
La preocupación no se limita solamente al campo comercial o gubernamental. Algunas voces dentro de la comunidad de la ciberseguridad temen que los avances en esta tecnología puedan suponer el fin de la privacidad tal como la conocemos, con algoritmos cada vez más potentes capaces de rastrear y procesar información personal en tiempo real.
El auge de la IA sin barreras
Este giro en la política de Google coincide con el lanzamiento de DeepSeek, la IA de origen chino que se distribuye bajo un modelo de código abierto (open source). Países como Australia ya han prohibido su uso y, en los Estados Unidos se debate en el Senado un proyecto de ley que busca restringir la cooperación con China en materia de desarrollo de IA.
Sin embargo, el debate va más allá de la tensión geopolítica y pone el foco en la naturaleza abierta del software, que permite a cualquier actor con conocimientos avanzados aprovecharse de la tecnología para fines maliciosos.
Lambert alerta de que un modelo abierto podría ser adaptado por ciberdelincuentes para incrementar la sofisticación y escala de sus operaciones. Desde la creación de malware indetectable, hasta la puesta en marcha de fraudes automatizados, las posibilidades de abuso son múltiples. También se plantea el escenario de regímenes dictatoriales que utilicen la IA como herramienta de represión y vigilancia, recordando episodios descritos en la literatura que retratan sociedades de control absoluto, cómo en la famosa novela 1984 de Orwell.
La necesidad de una colaboración internacional surge como vía para establecer estándares globales sobre el uso ético de la IA, cuyo objetivo es evitar que esta tecnología traspase fronteras sin contar con supervisión y salvaguardas mínimas que garanticen la seguridad de los ciudadanos y la protección de sus derechos.
Mercenarios digitales y militarización
Según continúa Lambert, la actualización de los principios de la IA y la irrupción de modelos abiertos plantean el riesgo de que las grandes corporaciones tecnológicas funcionen como mercenarios digitales, vendiendo sus avances a gobiernos o grupos con intereses muy específicos. Se apunta a que el uso de la IA en conflictos podría traducirse en la militarización de la tecnología, con drones autónomos, hackeos de instalaciones críticas y la automatización de ciberataques militares.
El escenario también contempla la posibilidad de privatizar la vigilancia, de modo que empresas especializadas en IA ofrezcan servicios de espionaje masivo a entidades que busquen recopilar información sobre sociedades y mercados, sin que haya una regulación clara que lo impida. Así mismo, existe la advertencia de que se podrían usar estas herramientas para interferir en cuestiones geopolíticas, desde sanciones económicas hasta la desestabilización de regiones enteras.
Futuro de la regulación y responsabilidad empresarial
En respuesta a estos desafíos, distintos expertos defienden la necesidad de una regulación internacional clara y efectiva que impida los usos abusivos de la IA. Algunos plantean la urgencia de leyes similares a la Ley de IA propuesta en la Unión Europea, con el fin de marcar límites en la investigación y aplicación de la inteligencia artificial. También se subraya la importancia de supervisar la puesta en marcha de sistemas de IA de código abierto para asegurarse que incluyan medidas de seguridad y controles de acceso adecuados.
En paralelo, las empresas tecnológicas deberían adoptar códigos éticos internos que prohíban la venta de soluciones de IA a actores que puedan utilizarlas con fines dudosos. Distintas voces en el sector consideran crucial la realización de auditorías externas para verificar que los modelos no sean susceptibles de explotación, además de reforzar la ciberseguridad en la protección de datos internos, evitando así el espionaje industrial.
En última instancia, muchos analistas coinciden en que, sin una intervención inmediata de gobiernos y organismos internacionales, la sociedad podría afrontar una realidad en la que la IA no solo vigile cada paso, sino que consolide un entorno donde la privacidad y el anonimato sean meros recuerdos.