Información

Feedback

Agradecimientos

Agencia Nacional de Investigación y Desarrollo

Subdirección de Investigación Aplicada/Concurso IDeA I+D 2023 proyecto ID23I10357

Exención de responsabilidad

La evaluación de impacto algorítmico es una herramienta desarrollada para dimensionar los riesgos asociados al uso de sistemas algorítmicos de ciencia de datos e inteligencia artificial (IA) en el sector público. La evaluación está diseñada únicamente como un soporte para quienes buscan dimensionar las consideraciones sobre el desarrollo de sus modelos, con el fin de fomentar el cumplimiento de las regulaciones para los modelos que utilizan IA o ciencia de datos.

La Universidad Adolfo Ibáñez (UAI) no ofrece garantías sobre el funcionamiento o el desempeño de los sistemas de ciencia de datos e IA que utilicen esta herramienta. La Universidad no es responsable de ningún tipo de daño directo, indirecto, incidental, especial o consecuente, ni de pérdidas de beneficios que puedan surgir directa o indirectamente de la aplicación de la herramienta.

El empleo de las herramientas desarrolladas por la Universidad no implica ni constituye un sello ni certificado de aprobación por parte de la Universidad Adolfo Ibáñez respecto al cumplimiento legal, ético o funcional de un algoritmo de inteligencia artificial.

Aquellos interesados en ser considerados como un caso de éxito mediante el uso de estas herramientas de IA responsable deben inscribirse en los pilotos a través del formulario https://algoritmospublicos.cl/quiero_participar.

HERRAMIENTAS ALGORITMOS ÉTICOSGob_Lab UAI

V.0.0.3 Beta

Evaluación de impacto algorítmico (EIA)

La herramienta de Evaluación de Impacto Algorítmico (EIA) es un recurso diseñado para analizar y gestionar los riesgos asociados al uso de sistemas algorítmicos y de inteligencia artificial en el sector público. Su objetivo principal es garantizar que dichos sistemas sean implementados de manera ética, segura y transparente. En esta fase beta la herramienta puede presentar errores que estamos trabajando en corregir a la brevedad.

Esta herramienta guía a los equipos de desarrollo en la identificación de posibles riesgos, como sesgos en los datos, falta de equidad, problemas de privacidad o ciberseguridad, y permite diseñar estrategias de mitigación antes de que los sistemas entren en funcionamiento. Además, la EIA asegura que los procesos algorítmicos se ajusten a los principios de transparencia y rendición de cuentas, esenciales en la gestión pública.

La evaluación se realiza a través de un cuestionario estructurado en 11 áreas clave, que abarcan desde la proporcionalidad del uso del algoritmo hasta la gobernanza del sistema y su impacto en la equidad y los derechos humanos. El resultado de esta evaluación proporciona un marco claro y accionable para mejorar la implementación del sistema algorítmico, permitiendo tomar decisiones informadas sobre su desarrollo y despliegue.

Para obtener los mejores resultados, recomendamos que un equipo multidisciplinario participe en el proceso de completar esta ficha.

Al finalizar, podrás descargar las recomendaciones y el informe de evaluación en formato PDF.

Comienza tu evaluación

Aviso de Privacidad

La información ingresada en esta herramienta no es almacenada por la plataforma. Todos los datos son procesados localmente en tu navegador para garantizar tu privacidad.