Appian respalda el marco regulatorio europeo de la IA

La expansión de la inteligencia artificial ha llevado a la Unión Europea y otros países a establecer marcos regulatorios que buscan mitigar riesgos y garantizar un uso responsable.
25 de noviembre, 2024
Appian respalda el marco regulatorio europeo de la IA

La inteligencia artificial (IA) ha pasado de ser una promesa tecnológica a una realidad palpable a lo largo de estos últimos años, y se ha integrado en múltiples aspectos de la vida cotidiana, que van desde las recomendaciones en plataformas de streaming, hasta los asistentes virtuales y servicios de atención al cliente, pasando por los ya populares chatbots como ChatGPT y Gemini, sin mencionar sus aplicaciones profesionales como la automatización industrial.

Sin embargo, este rápido crecimiento y adopción masiva han generado preocupaciones éticas, sociales y de seguridad, haciendo que la regulación sea un elemento fundamental.

En este sentido, la Unión Europea ha dado un paso significativo con la aprobación, en marzo de 2024, de la Ley de Inteligencia Artificial, que establece nuevas directrices para mitigar los riesgos de esta tecnología y permite asegurar un uso responsable.

Además, a finales de 2023, la Casa Blanca emitió regulaciones para el desarrollo de la IA, y en abril de 2024, anunció una colaboración con el Reino Unido para evaluar la seguridad de los sistemas avanzados de IA.

Estos avances legislativos representan un punto de inflexión en la forma en que las empresas deben abordar la IA en sus operaciones. La Ley de IA de la UE no solo afecta a las organizaciones dentro del bloque, sino también a cualquier entidad que tenga impacto en la región, por lo que su cumplimiento es obligatorio.

La normativa establece controles y directrices destinados a proteger a los usuarios de los riesgos asociados a una IA mal gestionada.

Abordando los riesgos de la inteligencia artificial

El uso de la IA ha sido amplio y diverso durante años, pero su crecimiento exponencial reciente, impulsado por el auge de la IA generativa (y con ChatGPT como máximo exponente), ha aumentado las preocupaciones sobre posibles riesgos.

Entre los más destacados se encuentran la creación de contenido falso o dañino, las denominadas «alucinaciones» o respuestas incorrectas generadas por la IA, y la falta de transparencia que dificulta entender cómo y por qué la IA toma ciertas decisiones.

La nueva legislación europea busca hacer frente a estos desafíos, y sus objetivos principales incluyen la necesidad de transparencia y la validación y supervisión humanas en sistemas de alto riesgo, que pueden tener un impacto significativo en áreas como el empleo, la justicia, la biometría o las infraestructuras críticas.

Transparencia y supervisión humana como pilares clave

La transparencia es esencial según la nueva ley. Los usuarios deben ser informados cuando interactúan con sistemas de IA, ya sea en aplicaciones conversacionales o en procesos más complejos que afecten su vida diaria, como solicitudes de préstamos o procesos de selección laboral. Esta claridad no solo protege a los consumidores, sino que también fomenta la confianza en la tecnología, crucial para su adopción a largo plazo.

Además, la validación y supervisión humana son fundamentales. La normativa estipula que las decisiones críticas no pueden ser tomadas de manera completamente autónoma por sistemas de IA; deben estar sujetas a revisión humana para garantizar que se eviten errores. La intervención humana permite corregir posibles fallos y asegura que las decisiones sean adecuadas.

Esta combinación de inteligencia artificial y supervisión humana crea lo que se conoce como «autonomía mixta«, concepto que Appian ha implementado para maximizar las fortalezas de ambos elementos; la IA puede ofrecer propuestas, pero es el juicio humano el que valida y controla sus resultados, integrando la tecnología como parte de un equipo.

Categorías de riesgo y obligaciones para las empresas

La Ley de IA clasifica los sistemas en cuatro categorías de riesgo: inaceptable, alto, limitado y mínimo. Los sistemas que presentan riesgos inaceptables, como la manipulación o la puntuación social basada en datos personales, están prohibidos. Los sistemas de alto riesgo, que incluyen desde dispositivos médicos hasta sistemas de reclutamiento, deben cumplir estrictos requisitos de evaluación y validación.

En este contexto, las empresas deben prepararse para registrar sus sistemas, someterlos a auditorías de conformidad y asegurar que cumplen con los niveles exigidos de seguridad, precisión y supervisión humana. Es imprescindible contar con un sistema de gestión de riesgos y una gobernanza de datos que garantice que los conjuntos de datos utilizados para entrenar a las IA sean representativos y estén libres de sesgos.

El compromiso de Appian

Desde Appian nos explican que esta compañía apoya firmemente la introducción de normas más estrictas para la privacidad de los datos y la protección de la propiedad intelectual.

Appian ofrece asesoramiento en la industria de la IA, especialmente en relación con el dominio de las grandes tecnológicas y su uso liberal de datos para entrenar modelos de IA.

La filosofía de esta compañía se basa en ofrecer una inteligencia artificial segura y privada, permitiendo a las organizaciones aprovechar sus beneficios sin comprometer el cumplimiento normativo. Incluso cuando utiliza modelos de terceros, toda la información permanece dentro de los límites y bajo la seguridad de su plataforma.

Muchos servicios públicos de IA refinan sus algoritmos utilizando datos de clientes, lo que plantea preocupaciones sobre el uso y destino de esa información. En contraste, la plataforma de Appian permite crear modelos propios que no se utilizan para entrenar otros sistemas, manteniendo los datos bajo control en todo momento.

Gracias a su colaboración con Amazon Web Services (AWS) Bedrock, Appian proporciona acceso a grandes modelos de lenguaje para ofrecer respuestas conversacionales, asegurando que los datos nunca se utilizan para modificar o entrenar otros modelos y permanecen siempre dentro del marco de cumplimiento.

La importancia del control de los datos y la automatización

Mantener el control de los datos es esencial; una plataforma robusta de automatización de procesos garantiza que la información nunca salga de los límites de cumplimiento. Por ejemplo, la funcionalidad de creación de indicaciones de IA de Appian permite incorporar indicaciones de IA generativa en procesos específicos y obtener respuestas precisas, protegiendo la información en todo momento.

El procesamiento se realiza siempre dentro de los parámetros de seguridad de Appian, asegurando que los datos no se expongan externamente y permanezcan bajo control. Este enfoque empresarial prioriza la seguridad, la transparencia y la privacidad, no solo cumpliendo con las regulaciones, sino también generando confianza entre clientes y usuarios.

Un futuro de inteligencia artificial responsable

La evolución de la regulación en torno a la IA indica que vendrán más cambios. Medidas como la adopción de IA privada de propiedad empresarial marcarán la pauta para el futuro de una inteligencia artificial segura. Al integrar la IA en los procesos mediante automatización y orquestación, y al incorporar la supervisión humana, es posible minimizar riesgos y maximizar beneficios.