La integración de la IA de Meta en Facebook, en Instagram, en WhatsApp y dispositivos conectados, incrementa el volumen de datos personales expuestos, según apuntan desde Check Point Software. La compañía dedicada a la ciberseguridad señala que los modelos de la familia LLaMA aprenden de información altamente sensible (ubicación, voz, rostro, emociones o patrones de uso) obtenida de forma masiva a través de estas plataformas. Esta acumulación de datos, sin un control estricto, puede facilitar la creación de perfiles muy precisos y la explotación de vulnerabilidades de los usuarios.
Rafael López, ingeniero de seguridad especializado en protección de correo electrónico de Check Point Software explica: “Meta no solo está desarrollando modelos de texto o asistentes virtuales; está creando experiencias inmersivas mediante IA generativa, avatares inteligentes y contenidos automatizados que pueden alterar la percepción del usuario y poner en riesgo su privacidad”.
Por ello, la firma advierte que LLaMA puede convertirse en una vía de entrada para suplantaciones de identidad y desinformación si no se supervisa. Entre los posibles escenarios figura el uso de IA generativa para elaborar deepfakes o perfiles falsos capaces de manipular la percepción del usuario y de difundir contenidos engañosos a gran escala. La empresa también subraya el incremento de las estafas de ingeniería social, como las llamadas romance scams, en las que los atacantes emplean mensajes emocionalmente persuasivos creados por modelos avanzados.
La correlación de datos entre plataformas amplifica el impacto de una posible filtración, y desde Check Point recuerdan que configuraciones predeterminadas poco restrictivas en aplicaciones móviles pueden llevar a la cesión automática de información, lo que agrava las consecuencias de cualquier acceso no autorizado. Además, la automatización mediante bots permite lanzar campañas coordinadas de desinformación, alimentadas por contenidos generados por IA y dirigidas a públicos específicos.
Rafael López, ingeniero de seguridad en Check Point Software afirma: “No basta con desplegar la IA: hay que auditar su funcionamiento, asegurar la transparencia con los usuarios y limitar su aplicación en contextos especialmente sensibles, como la atención médica o psicológica”.
Entre las medidas recomendadas figuran la detección proactiva de amenazas basada en IA y la formación continua de los empleados. La firma sugiere combinar soluciones de seguridad que identifiquen comportamientos anómalos en tiempo real, con programas de concienciación sobre los riesgos que implica el uso de tecnologías generativas. Igualmente, propone instaurar marcos éticos que garanticen transparencia y supervisión humana en ámbitos delicados, como la atención sanitaria o psicológica.



