Considerar la implicación moral de los usos de los datos y la IA y codificarlos en los valores de la organización.
Anticipar y comprender las principales políticas públicas y tendencias normativas para alinear los procesos de cumplimiento.
Permitir la supervisión de los sistemas en las tres líneas de defensa.
Cumplir la normativa, las políticas organizativas y las normas del sector.
Aplicar prácticas transitorias de detección y mitigación de riesgos para hacer frente a los riesgos y daños exclusivos de la AI.
Permitir una toma de decisiones transparente sobre el modelo.
Minimizar el impacto medioambiental negativo y capacitar a las personas.
Permitir sistemas fiables y de alto rendimiento.
Definir y medir la imparcialidad. Comprobar los sistemas según las normas.
Mejorar la ciberseguridad de los sistemas.
Desarrollar sistemas que preserven la privacidad de los datos.
Diseñar y probar sistemas para evitar daños físicos.
Identificar el problema concreto que se está resolviendo y si justifica una solución AI/ML.
Seguir las normas y mejores prácticas del sector.
Evaluar el rendimiento del modelo y continuar el iterando sobre el diseño y el desarrollo para mejorar las métricas.
Realizar un seguimiento continuo para identificar errores y riesgos.