Desde esta semana, los proveedores de las diecinueve grandes plataformas en línea y motores de búsqueda designados en abril de 2023, están obligados a hacer públicos sus informes anuales de evaluación de riesgos y auditoría. Este requisito se enmarca dentro de la Ley de Servicios Digitales (DSA, por sus siglas en inglés), normativa de la Unión Europea que busca regular y supervisar el entorno digital.
Estos informes deben incluir las evaluaciones realizadas por los proveedores para identificar y analizar los riesgos derivados de sus servicios. Entre los riesgos evaluados se encuentran la difusión de contenido ilegal, la desinformación y la protección de menores.
Además, los informes detallan las medidas implementadas por las plataformas y motores de búsqueda para mitigar los riesgos identificados.
Impacto en la industria tecnológica
Según afirman desde la Unión Europea, la publicación de estos informes marca un hito en términos de transparencia y responsabilidad dentro de la industria tecnológica; la DSA pretende proteger a los usuarios y a la sociedad de posibles daños, promoviendo un entorno en línea más seguro y responsable. Este nuevo nivel de supervisión obliga a las grandes plataformas a ser más conscientes y proactivas en la gestión de los riesgos asociados con sus servicios.
La Comisión Europea organizará talleres en los que se invitará a los proveedores de estos servicios designados a presentar sus evaluaciones de riesgo publicadas. En estos eventos participarán los Coordinadores Nacionales de Servicios Digitales, organizaciones de la sociedad civil y otros interesados. Se espera que estos talleres tengan lugar a comienzos de 2025.
¿Qué es la DSA?
La Ley de Servicios Digitales es una de las normativas más ambiciosas de la Unión Europea para regular el entorno digital, cuyo objetivo principal es garantizar un espacio en línea más seguro, transparente y justo para los usuarios.
Adoptada oficialmente el 27 de octubre de 2022 por el Parlamento Europeo y el Consejo de la UE, la DSA establece nuevas obligaciones para las plataformas digitales, como redes sociales, mercados en línea y motores de búsqueda.
La regulación obliga a las plataformas a eliminar contenido ilegal de manera ágil y efectiva, incluyendo discursos de odio, productos falsificados y actividades fraudulentas, exige a las plataformas que expliquen cómo funcionan sus algoritmos de recomendación y moderación de contenido, e introduce requisitos específicos para las plataformas de gran tamaño (como Meta, Apple, Microsoft o Google) debido a su impacto significativo en el mercado digital.
También prohíbe ciertos tipos de publicidad, como los anuncios dirigidos a menores o basados en características sensibles, como la religión, la orientación sexual o el estado de salud.
Además de afectar a las empresas radicadas en territorio europeo, también debe ser cumplida por aquellas que operen en territorio europeo aunque no tengan una sede en él, e independientemente de su ubicación.