Tras la adopción en mayo de 2024 de la recomendación revisada sobre inteligencia artificial, el comité de políticas digitales de la OCDE (Organización para la Cooperación y el Desarrollo Económicos) aprobó y publicó recientemente un nuevo documento de trabajo consistente en una guía práctica para ayudar a las empresas a implementar directrices de conducta empresarial responsable en toda la cadena de valor de la inteligencia artificial.
La adopción de dichas directrices busca sistematizar los riesgos asociados a estas herramientas, previniendo impactos adversos y fomentando un entorno organizativo que facilite el crecimiento económico y la adaptación a las regulaciones internacionales.
El texto clasifica a las corporaciones destinatarias en tres grandes grupos según su área de actividad profesional, con un primer conjunto englobando a los proveedores de recursos, que incluyen a quienes suministran bases de datos, infraestructura digital, capital financiero y componentes físicos de computación.
El segundo segmento está formado por las entidades que participan de manera directa en el diseño, desarrollo, despliegue y operación continuada de los modelos algorítmicos y, finalmente, el tercer grupo abarca a los usuarios corporativos que integran estas tecnologías en sus propias rutinas operativas, productos o servicios destinados al mercado.
Para todos estos actores, el nivel de exigencia en las auditorías internas debe ser proporcional al tamaño de la organización, su grado de vinculación con un posible problema y la gravedad de las consecuencias ocasionadas. La OCDE reconoce de manera explícita que las entidades de menor tamaño pueden enfrentarse a limitaciones financieras y operativas, motivo por el cual se sugiere su participación en consorcios sectoriales colaborativos destinados a reducir los costes de supervisión y facilitar el acceso a la información.
Fases de evaluación y actuación
El núcleo metodológico del texto detalla un proceso continuo e iterativo compuesto por seis fases fundamentales para asegurar la correcta supervisión.
En primer lugar, las organizaciones deben integrar criterios de responsabilidad en sus políticas corporativas y sistemas de gestión para, a continuación, identificar y evaluar de manera exhaustiva los impactos adversos reales o potenciales vinculados a sus operaciones operativas y relaciones comerciales.
Una vez clasificados los problemas, la tercera fase exige paralizar, prevenir o mitigar dichos riesgos, adaptando la contundencia de la respuesta al nivel de relación directa que la empresa tenga con la incidencia detectada. Posteriormente, los responsables técnicos tienen que rastrear de forma continua el grado de implementación y los resultados prácticos de las contramedidas adoptadas.
El quinto paso consiste en comunicar externamente las decisiones llevadas a cabo para abordar los impactos, asegurando la transparencia informativa frente a las terceras partes involucradas y, como conclusión del proceso, cuando una corporación haya causado o contribuido a un daño constatable, debe proporcionar mecanismos de reparación formales o cooperar activamente para restaurar la situación original de los perjudicados.
Todo este ciclo procedimental requiere, además, el establecimiento y mantenimiento de vías de consulta constantes con las plantillas laborales, las representaciones sindicales y los colectivos ciudadanos potencialmente afectados por los procesos de automatización.



