La evolución de la inteligencia artificial en el ámbito corporativo ha alcanzado una fase de madurez donde la prioridad ya no reside únicamente en la adopción de la tecnología, sino en el control sobre la misma. En este contexto, Fujitsu ha anunciado el lanzamiento de una plataforma de IA dedicada que permite a las empresas gestionar de forma autónoma todo el ciclo de vida de la inteligencia artificial generativa. Esta propuesta surge como respuesta a la necesidad crítica de las organizaciones de disponer de un entorno que cumpla con estrictos requisitos de soberanía, garantizando la protección de datos confidenciales y ofreciendo la capacidad de controlar modelos y agentes optimizados para sus operaciones específicas.
El desarrollo de esta infraestructura aborda los desafíos habituales que enfrentan las corporaciones al desplegar IA en entornos internos, tales como la complejidad de la gestión operativa, el incremento en la demanda de recursos de computación, la escasez de ingenieros especializados y la mitigación de nuevas amenazas de seguridad. Para solventar estas barreras, la nueva plataforma se desplegará de forma progresiva en Europa y Japón, integrando tecnologías avanzadas en un único paquete para facilitar una adopción rápida sin requerir amplios conocimientos técnicos previos.
Desde una perspectiva técnica, la arquitectura de la solución se fundamenta en la Private AI Platform on PRIMERGY y Private GPT, permitiendo su implementación tanto en centros de datos propios del cliente (on-premise) como en instalaciones de Fujitsu, según las necesidades específicas de cada organización. La característica central de esta infraestructura es su capacidad para asegurar un uso de la IA generativa en un entorno cerrado y dedicado, lo que evita la exposición de datos sensibles a sistemas externos. En el ámbito de la ciberseguridad, la plataforma incorpora un escáner que identifica más de 7.700 tipos de vulnerabilidades y utiliza tecnologías de guardrails para detectar y mitigar ataques como inyecciones de prompts o comportamientos inesperados, generando automáticamente reglas de protección.
El núcleo de procesamiento de esta plataforma se articula en torno a Takane, un modelo de lenguaje de gran tamaño (LLM) desarrollado conjuntamente con Cohere, que destaca por su precisión en japonés y sus capacidades de análisis de imágenes. Este modelo no es una novedad aislada, sino que se basa en los desarrollos que la compañía hizo públicos en septiembre de 2025, enfocados en la eficiencia energética. Gracias a las tecnologías de aligeramiento y cuantización integradas, los modelos de IA reducen el consumo de memoria hasta en un 94%, disminuyendo significativamente los costes de uso y los recursos de computación necesarios. Además, se incluye una función de ajuste fino (fine-tuning) interno que facilita la mejora continua de los modelos para adaptarlos a la realidad de cada negocio.
Para agilizar la creación de aplicaciones prácticas, la solución dispone de un entorno de trabajo para agentes de IA con capacidades low-code y no-code, diseñado para acelerar el desarrollo por parte de los equipos internos. Esta arquitectura es compatible con el Protocolo de Contexto de Modelo (MCP), lo que permite una integración fluida con sistemas preexistentes y la operación cooperativa entre múltiples agentes. De cara al futuro, la estrategia de la compañía pasa por evolucionar estas capacidades para cubrir todas las escalas, desde la IA empresarial masiva hasta la IA física y en el borde (edge).
En cuanto a la disponibilidad comercial de la solución, los registros para las pruebas preliminares de funcionalidades clave, como el ajuste fino y la cuantización, se abrirán el 2 de febrero de 2026. El despliegue de las distintas funcionalidades se realizará de manera escalonada a partir de ese mismo mes, culminando con el lanzamiento oficial de la plataforma completa previsto para julio de 2026.



