Berocam y AEFI analizan la regulación y adopción de la IA en FinTech tras el Reglamento Europeo

Berocam y AEFI publican un informe que analiza los desafíos normativos y tecnológicos que plantea el uso de IA en la industria financiera digital, destacando la necesidad de equilibrar innovación, ética y seguridad.

Berocam, firma especializada en gobierno del dato e inteligencia artificial; y la Asociación Española de FinTech e InsurTech (AEFI) han presentado un informe conjunto en el que abordan el impacto regulatorio y tecnológico de la inteligencia artificial en el sector FinTech. El documento examina las oportunidades y los retos que supone la creciente adopción de esta tecnología, especialmente tras la entrada en vigor del Reglamento Europeo de IA en agosto de 2024.

El estudio destaca cómo la IA generativa está ampliando sus aplicaciones en el ámbito financiero, con efectos visibles en procesos como: análisis de inversiones, atención al cliente y la detección de fraudes. Según se recoge, esta evolución ha permitido automatizar tareas clave, reducir costes y minimizar errores humanos. Además de personalizar servicios financieros y facilitar una experiencia de usuario más eficiente.

Entre las aplicaciones mencionadas figuran los asistentes virtuales, que permiten una atención más ágil y personalizada, y los motores de recomendación de productos financieros, capaces de generar carteras adaptadas a las necesidades individuales del cliente.

A pesar de sus beneficios, el informe advierte de riesgos inherentes a la implementación de sistemas de IA, como la existencia de sesgos en los algoritmos, que podrían derivar en decisiones injustas, especialmente en procesos sensibles como la concesión de créditos. En este sentido, se subraya la necesidad de auditar los modelos con criterios de representatividad y equidad de los datos empleados.

Así mismo, se señala como un aspecto crítico la seguridad de los datos, dado que las empresas FinTech manejan información especialmente sensible. La implementación de medidas robustas de ciberseguridad se presenta como un requisito imprescindible para preservar la integridad de los sistemas y evitar accesos no autorizados.

Nuevo marco normativo europeo y clasificación por riesgos

El nuevo Reglamento Europeo de Inteligencia Artificial introduce una clasificación de los sistemas de IA en función de su nivel de riesgo: inaceptable, alto, medio o bajo. En el contexto FinTech, el uso de IA para la evaluación de solvencia crediticia ha sido incluido dentro de la categoría de alto riesgo, dada su influencia directa sobre el acceso a productos financieros y la posibilidad de reproducir sesgos discriminatorios.

Por el contrario, tecnologías orientadas a la detección de fraudes o al cálculo de requisitos de capital han quedado fuera de dicha clasificación. Esta distinción requiere que las empresas del sector cuenten con un asesoramiento legal especializado para comprender con precisión las responsabilidades legales derivadas de su uso de IA.

El reglamento también establece obligaciones específicas, como la etiquetación del contenido generado por IA y la necesidad de definir el rol de cada actor en la cadena de valor, aspectos que afectan directamente a la transparencia y trazabilidad de los sistemas implantados.

Según el análisis de Berocam y la AEFI, uno de los principales retos reside en encontrar un equilibrio entre regulación e innovación. Las restricciones normativas excesivas podrían comprometer la adopción de herramientas tecnológicas que resultan clave para la eficiencia operativa del sector, especialmente para pequeñas y medianas empresas.

En este contexto, la AEFI recuerda su papel en la promoción de iniciativas legislativas que favorecen el desarrollo del ecosistema FinTech, como su participación en la elaboración de la Ley de Startups o la directiva PSD2. La regulación de la IA abre ahora una nueva etapa que exigirá mantener ese enfoque colaborativo para garantizar el crecimiento del sector sin comprometer la ética y la protección del consumidor.

Tanto Berocam como la AEFI coinciden en la necesidad de que el marco regulatorio sea flexible, proporcional y adaptado, capaz de garantizar un uso justo y transparente de la inteligencia artificial sin frenar su evolución tecnológica.