
En cumplimiento de la sentencia T-065 de 2025 de la Corte Constitucional, la Agencia Nacional Digital, la Procuraduría General de la Nación y la Defensoría del Pueblo iniciaron un proceso de construcción de una directiva que contuviera lineamientos sobre la transparencia algorítmica en los sistemas algorítmicos utilizados por el Estado.
En Karisma venimos trabajando desde hace años en el análisis de los sistemas de decisión automatizada (SDA), especialmente en el caso del Sisbén, para verificar la forma en la que su adopción puede afectar derechos fundamentales. Por esa razón, fuimos parte de una mesa técnica en la que comentamos un borrador de la Directiva.
Celebramos que exista un borrador de directiva conjunta sobre lineamientos de transparencia algorítmica, y que autoridades del Estado se tomen en serio una posición crítica para la adquisición, uso e implementación de la tecnología en el Estado. En todo caso, dejamos algunas preocupaciones que podrían limitar el verdadero alcance de la directiva.
- Sin mecanismos claros de responsabilidad
La propuesta no asegura cómo se cumplirá la directiva. Es clave incluir las obligaciones que ya existen en leyes de transparencia y petición, y pensar en mecanismos de acompañamiento, control judicial y verificación real de su aplicación. - Contratación pública poco transparente
Aunque habla del proceso de adquisición, no define cómo se deben manejar los contratos con proveedores. Hoy, muchas veces se esconden detrás de derechos de autor o secretos industriales para evitar la transparencia. - Excesivas excepciones para negar información
Argumentos como “seguridad nacional” o “propiedad intelectual” se usan de manera abusiva para ocultar información. La directiva debería dejar claro que esas excepciones deben interpretarse de forma muy restrictiva. - El derecho de autor no puede ser principio rector
Darle prioridad al derecho de autor en la interpretación de la norma refuerza el mismo obstáculo que ya ha limitado la transparencia en casos anteriores. El foco debe estar en garantizar acceso a información significativa sobre cómo funcionan los algoritmos. - Explicabilidad demasiado limitada
La directiva solo habla de explicabilidad en la fase de implementación y únicamente para las personas directamente afectadas. Esto excluye fases críticas como el diseño y la contratación, y deja por fuera a periodistas, veedurías y otros actores que deben poder acceder a esa información.
Evaluación de impacto algorítmico opcional
La evaluación de impacto se plantea como un “podrán adoptar” en lugar de una obligación. Además, se reduce solo a la implementación, cuando debería abarcar todo el ciclo de vida del sistema: desde el diseño hasta la desactivación, siempre con procesos de participación abiertos y plurales.
Conoce los comentarios completos en este documento:
Acompáñanos en @Karisma en X, Fundación Karisma en Facebook y YouTube, y @karismacol en Instagram y Tik Tok.
Si por algún motivo esta entrada no es accesible para tí, por favor escríbenos a comunicaciones@karisma.org.co y haremos los ajustes que estén a nuestro alcance para que puedas acceder al contenido.
Indícanos el título del contenido en el asunto del correo, por ejemplo: Comentarios a directiva sobre transparencia algorítmica.
Es fundamental poner el tema en la agenda y nutrir la conversación. ¿Trabajas en un medio de comunicación? Escríbenos a comunicaciones@karisma.org.co