V.0.0.2
La herramienta de Evaluación de Impacto Algorítmico (EIA) es un recurso diseñado para analizar y gestionar los riesgos asociados al uso de sistemas algorítmicos y de inteligencia artificial en el sector público. Su objetivo principal es garantizar que dichos sistemas sean implementados de manera ética, segura y transparente, cumpliendo con las normativas locales e internacionales y protegiendo los derechos de las personas afectadas por sus decisiones.
Esta herramienta guía a los equipos de desarrollo en la identificación de posibles riesgos, como sesgos en los datos, falta de equidad, problemas de privacidad o ciberseguridad, y permite diseñar estrategias de mitigación antes de que los sistemas entren en funcionamiento. Además, la EIA asegura que los procesos algorítmicos se ajusten a los principios de transparencia y rendición de cuentas, esenciales en la gestión pública.
La evaluación se realiza a través de un cuestionario estructurado en 11 áreas clave, que abarcan desde la proporcionalidad del uso del algoritmo hasta la gobernanza del sistema y su impacto en la equidad y los derechos humanos. El resultado de esta evaluación proporciona un marco claro y accionable para mejorar la implementación del sistema algorítmico, permitiendo tomar decisiones informadas sobre su desarrollo y despliegue.
Para obtener los mejores resultados, recomendamos que un equipo multidisciplinario participe en el proceso de completar esta ficha.
Al finalizar, podrás descargar las recomendaciones y el informe de evaluación en formato PDF para compartir con tu equipo y otras partes interesadas.
La información ingresada en esta herramienta no es almacenada por la plataforma. Todos los datos son procesados localmente en tu navegador para garantizar tu privacidad.