Propuestas para el abordaje desde una perspectiva crítica de derechos humanos, diseñada para los medios de comunicación, la academia y la sociedad civil.
Los Estados dedican muchos esfuerzos para mantener y mejorar los sistemas de protección social. La atención de las personas en condición de pobreza y la garantía de sus derechos a la salud o al mínimo vital, entre otros, se hace cada vez más importante, especialmente en estos momentos de inseguridad económica y laboral.
Para que funcionen, estos sistemas usan grandes cantidades de información y datos personales. En Karisma nos hemos venido preguntando cómo el diseño y el uso de estos datos afecta a las personas que participan en los programas de protección social.
Este documento ofrece un conjunto de elementos sobre el tema de programas sociales para apoyar a las personas más vulnerables y la datificación de programas sociales (recolección, uso y análisis de datos de las personas).por parte del Estado.
Su objetivo es servir como una guía para orientar a organizaciones de la sociedad civil, periodistas y personas de la academia en esta discusión alrededor de cinco problemáticas específicas.
Primera problemática: ¿Tecnologías para vigilar y castigar a las personas más vulnerables?
Cuarta problemática: Vigilando a las “buenas madres”
Quinta problemática: Ingreso Solidario ¿más datos y menos autonomía?
Problemática 1: ¿Tecnologías para vigilar y castigar a las personas más vulnerables?
Los sistemas de protección social que se habían creado para apoyarnos y redistribuir la riqueza para promover la justicia social están utilizando complejos sistemas basados en datos personales. Aunque su objetivo es hacer funcionar el sistema, el uso de estos datos termina vigilando y castigando a las personas más vulnerables. Los sistemas que debieron diseñarse para dignificar su vida y asegurar su autonomía son ahora herramientas que reproducen y hacen aceptable la violencia contra esta comunidad.
Esta tendencia se ve en todo el mundo y muchas organizaciones están alertando sobre el uso de tecnologías en sistemas de protección social y sus riesgos para los derechos a la privacidad, protección de datos, igualdad y dignidad de las personas que participan en programas sociales.
Más sobre este tema:
La protección social debe hacerse con un enfoque de derechos humanos. La ex Relatora Especial de la ONU para la pobreza extrema, Magdalena Sepúlveda, junto con Carly Nyst recogieron en el siguiente documento los elementos fundamentales para la aplicación de derechos humanos en el diseño, implementación y evaluación de los sistemas de protección social.
Recientemente, otro Relator Especial de la ONU para la pobreza extrema, Philip Alston, reconoció que existe un “estado de bienestar digital” en el que las tecnologías se usan para “automatizar, predecir, identificar, vigilar, detectar, target, y castigar”.
La vulneración de la privacidad por el abuso de las tecnologías en los sistemas de protección social tiene antecedentes judiciales. La Corte del Distrito de la Haya en Países Bajos, declaró inconstitucional el sistema SyRI que analizaba el riesgo de fraude de los beneficiarios de programas sociales por la falta de proporcionalidad entre la vigilancia a la que sometían a las personas y lo que se conseguía con ella.
Los medios y organizaciones de la sociedad civil también siguen estas discusiones. El medio inglés The Guardian publica un especial llamado “Automating Poverty” sobre cómo los algoritmos castigan a las personas pobres alrededor del mundo. La organización Privacy International tiene una guía para la investigación del uso de tecnologías en los sistemas de beneficios sociales.
Segunda problemática: Las bases de datos del Sisbén ¿para incluir o para excluir a las personas de los programas sociales?
En Colombia tenemos estos mismos problemas. El Sistema de Posibles Beneficiarios de Programas Sociales (Sisbén) es el principal instrumento para clasificar a las personas según sus condiciones sociales. Esta clasificación se utiliza para asignar más de 19 programas sociales.
El sistema recoge datos personales de más de 39 millones de personas en encuestas sobre temas como salud, educación, ingresos, gastos y composición familiar para generar una clasificación que puede ubicar a las personas en pobreza extrema, pobreza, vulnerabilidad o ninguna de las anteriores.
La “modernización” del Sisbén trae dos cambios principales que apuntan a detener la “manipulación” de la información por parte de las personas y por retratar la “verdadera” situación social de las personas a través de las bases de datos disponibles para el Estado.
Por un lado, a través de un modelo secreto el gobierno trata de predecir “la capacidad de generación de ingresos” de cada persona. Ese perfil es la base para ubicar a las personas en los grupos socioeconómicos.
Por otro lado, el gobierno verificará con 34 bases de datos públicas y privadas los datos que reportan las personas en la encuesta. Cualquier inconsistencia genera una marcación en la persona que puede terminar en la exclusión de programas sociales.
Más sobre este tema:
Entender los detalles del funcionamiento del Sisbén no es tarea fácil. En Karisma explicamos algunos elementos básicos del sistema y los principales cambios que trae el Sisbén IV.
Los documentos oficiales más importantes para entender el sistema son el Documento CONPES 3877 de 2016 que actualizó el Sisbén a su cuarta versión y el Decreto 441 de 2017 que reglamenta el Sisbén.
Tercera problemática: ¿Qué pasa con los algoritmos, el diseño y los datos personales recolectados por el Sisbén?
En Karisma hemos identificado los siguientes problemas del Sisbén:
- El algoritmo utilizado para generar los puntajes es reservado. El Departamento Nacional de Planeación tampoco explica cómo se llegó a cada puntaje en particular. La reserva y la falta de explicación limitan las posibilidades de hacer veeduría ciudadana para evitar discriminación de ciertas comunidades.
- El Sisbén es arbitrario en su diseño, pues el DNP es el encargado de definir el algoritmo, los datos a verificar y cómo se verifica sin procedimientos de participación ciudadana.
- La recolección y el uso de los datos personales en el Sisbén se hace principalmente porque se sospecha de las personas beneficiarias. Esto va en contra de la presunción de inocencia. Las verificaciones a las que están sometidas las personas beneficiarias no ocurren para otros grupos poblacionales.
- El DNP hizo varios acuerdos de intercambio de información con entidades públicas y privadas que incluyen centrales de riesgo como Datacrédito y Transunion.
- El impacto de los procesos de verificación automática pueden terminar en fallas por problemas de calidad o humanos que recaen sobre las personas que son castigadas por el sistema.
- Las personas se enfrentan a un sistema que las califica con criterios que no conocen, con protocolos de verificación que no son claros y sin herramientas para retar estas calificaciones. El único recurso disponible es una nueva encuesta.
En Karisma hicimos un análisis de lo que significan los cambios que trae el Sisbén IV y explicamos los hallazgos en un informe.
Más sobre este tema:
También explicamos los puntos esenciales de este informe.
Por un lado, detallamos los cambios más importantes en la forma de producir la calificación: ¡La suerte está echada! Los “merecedores” deben ser elegidos por sus “posibles” ingresos y no por lo que tienen. Por el otro, hablamos sobre los problemas del proceso de verificación en conexión con las bases de datos que se utilizan para este propósito: ¡Cúlpelos a ellos! La vigilancia sobre las personas en vulnerabilidad
Hemos tenido la oportunidad de hablar en algunas ocasiones públicamente con representantes del Departamento Nacional de Planeación.En marzo de 2021 hablamos con Laura Pabón, directora de Desarrollo Social del DNP por invitación de La Silla Vacía: ¿Qué implica modernizar el Sisbén? y a propósito del lanzamiento oficial de la nueva versión del Sisbén: Presentación del Sisben Versión IV – 4 de marzo de 2021
Cuarta problemática: Vigilando a las “buenas madres”
Como sabemos, Sisbén es la puerta de entrada a 19 programas sociales del Estado, uno de ellos es Familias en Acción. El análisis de este programa nos ha permitido pensar en una agenda de investigación que desde una perspectiva feminista se pregunte por los efectos de la vigilancia y la recolección y explotación de grandes cantidades de datos.
A partir del análisis de Familias en Acción nos podemos preguntar por cómo la vigilancia estatal en los programas sociales afecta particularmente la privacidad, autonomía y dignidad de las mujeres.
Familias en Acción es un programa que funciona a través del establecimiento de condicionalidades punitivas. Es decir, impone unos requisitos que las mujeres deben cumplir para obtener el beneficio económico. Esta situación nos deja preguntas sobre los estereotipos que se refuerzan con el programa y las desventajas que se les impone en su tiempo y autodeterminación debido al diseño del sistema.
El informe invita a investigar en detalle:
- Cómo la calidad de las bases de datos oficiales y su relación con los procesos de verificación impacta a las mujeres beneficiarias del programa
- Cómo las condicionalidades del programa afectan a las mujeres en relación con el tiempo y recursos que invierten en su participación, especialmente cuando este gasto está relacionado con las medidas de vigilancia del programa
- Cómo se crea desde la institucionalidad un perfil determinado de mujer y buena madre en los procesos de formación y capacitación del programa, especialmente el rol que cumplen las Madres Líderes
- Cómo se construye el discurso de responsabilización y estigma hacia las mujeres en condición de pobreza y en qué medida esto se expresa en el despliegue del programa
Más sobre este tema:
El informe completo sobre Familias en Acción y vigilancia a través de los datos
Castro, Laura y López, Joan (2021) “Vigilando a las ‘buenas madres’: Aportes desde una perspectiva feminista para la investigación sobre la datificación y la vigilancia en la política social desde Familias en Acción”. Fundación Karisma
Los puntos más relevantes del informe los explicamos en nuestra publicación: Recursos claves para la discusiónsobre Familias en Ación y Género
Más allá del caso concreto de Familias en Acción o los programas sociales, la academia se ha interesado por la inclusión de una perspectiva feminista en los debates más recientes sobre ciencia de datos. Catherine D’Ignazio y Lauren F. Klein son coautoras del libro “Data Feminism” que está disponible en acceso abierto
En diciembre de 2020, El Laboratorio en Métodos Digitales e Inventivos de Investigación Social (DisorLab) de la Universidad del Rosario con apoyo de Fundación Karisma invitó a una charla con Catherine D’Ignazio disponible en YouTube, Feminismo de datos.
Respecto a literatura secundaria sobre este tema, destacamos: La experiencia de las mujeres afroamericanas pobres en la búsqueda de servicios de asistencia social en Estados Unidos. En este contexto, las mujeres se ven involucradas en una red de servicios compleja que las somete a una vigilancia estatal intrusiva que compromete seriamente su derecho a la privacidad.
En este artículo se argumenta que la vigilancia moderna opera bajo una lógica masculina de control a distancia y descorporización. El autor tiene el objetivo de explorar las distintas dimensiones de género en la vigilancia para cuestionar las relaciones de poder que encarna y su supuesta neutralidad.
Quinta problemática: Ingreso Solidario ¿más datos y menos autonomía?
Durante la crisis social y económica causada por el COVID -19, el DNP, en tan solo dos semanas, creó el programa de transferencias no condicionadas “Ingreso Solidario” para 3 millones de hogares. Esto fue posible utilizando múltiples bases de datos para “buscar” a las personas en condición de pobreza y vulnerabilidad que no estaban recibiendo otras transferencias del Estado.
Para Ingreso Solidario, el gobierno construyó una Base Maestra de Información (BMI) que se basó en Sisbén, pero que conectó con otros registros para llegar a determinar las personas beneficiarias. El DNP utilizó sin reparos bases de datos que fueron creadas con diferentes propósitos y administradas por entidades públicas como Medicina Legal y el INPEC y privadas como Bancos, Centrales de Riesgos Financieros o Empresas de Telecomunicaciones.
Este experimento representó un cambio fundamental en la forma de focalizar beneficios sociales, pues ahora no es necesario “buscar” a las personas pobres en el territorio ni actualizar el algoritmo de Sisbén, sino de “aprovechar” los datos personales que vamos dejando en nuestra interacción con diferentes instituciones de forma poco transparente.
El gobierno utilizó luego la BMI para iniciar el Registro Social de Hogares que mezclará más de 36 bases de datos públicas y privadas para determinar las condiciones sociales de cada hogar verificando constantemente los datos del Sisbén. En otras palabras, Ingreso Solidario es una muestra del preocupante futuro de la política social en la que las personas tienen cada vez menos mecanismos para exigir sus derechos mientras que el Estado usa cada vez más datos personales para hacer política pública.
Más sobre este tema:
Ingreso solidario fue creado por el Decreto Legislativo 518 de 2020 y tiene un Manual Operativo .El Registro Social de Hogares fue creado por el Decreto 812 de 2020.
En Karisma hemos escrito sobre el tema. En “Ingreso Solidario: Un experimento del Estado para evitar discusión política sobre beneficios sociales por COVID 19” presentamos una visión general de lo que significa el programa. Versión en inglés.
Además, escribimos también una versión en inglés para el libro “COVID-19 from the Margins. Pandemic Invisibilities, Policies and Resistance in the Datafied Society” editado por el equipo de Big Data desde el Sur
3 comentarios
Osswtbz
jerry.lucak@weschler.com
:
Josemendez@hotmail.com
En este blog que te voy a dejar, puedes ver todos los programas, las ayudas que el gobierno tiene para Colombia.