Algoritmos racistas

2023-09-28 Leer en voz alta

El rostro de una persona nos da muchísima información sobre ésta. Por ejemplo, suele indicarnos si se ve como un “él”, como una “ella” o si quizá le corresponda un “elle”. Pero esa información siempre está incompleta

Tal como pasa con los pronombres, si nos quedamos sólo con el rostro no vamos a poder estar seguros de que lo que inferimos es acertado. Y aunque sabemos esto (¿cuántas veces nos han repetido el refran de que no debemos juzgar a los libros por su portada?) ignorar la información implicita que carga un rostro es imposible y, en muchos sentidos, ni siquiera es deseable. Pero ¿dónde está el límite entre información implícita y prejuicio?

Para la frenología de comienzos del S.XIX el límite simplemente no existía: según esta teoría racista y pseudocientífica, la forma de nuestros cráneos y los rasgos de nuestra cara permitían hacer inferencias ciertas sobre nuestra salud mental, nuestras capacidades intelectuales o incluso sobre la probabilidad de que tuviéramos comportamientos criminales; como si el crímen estuviera codificado en el rostro. Por suerte, y gracias al avance en otras maneras de comprender fenómenos complejos como la seguridad o la inteligencia, hemos dejado atrás una buena parte de esa herencia intelectual. 

Sin embargo, estas bases siguen presentes en algunas formas de biometría y la misma promesa de que podemos atrapar a los criminales sólo conociendo su rosto, ya no a través de inferencias generalizadas, sino de algoritmos que contrastan rostros, sigue estando presente. Y también siguien presentes peligros racistas: por ejemplo, es más probable que un algoritmo de identificación facial confunda a una persona con otra, si se trata de individuos racializados o de mujeres. 

En este tercer y úñltimo capítulo del podcast te explicamos por qué, además de abordar otras cuestiones como por qué, en vez de concentrarnos en maneras de garantizar que las personas tengan sus necesidades satisfechas y no se vean inclinadas a robar para conseguir dinero, la tecnología de reconocimiento facial que sigue desarrollandose se concentra en castigar a los infractores. 

No te pierdas este último capitulo del podcast Identidad Digital en que abordamos la historia racista de la biometría y cómo, de alguna manera, esta sigue presente en los usos que le damos hoy en día. Si estos temas te apasionan, puedes leer más en nuestra página https://digitalid.karisma.org.co/ 

Accede al podcast en Spotify, Apple Podcast, Anchor, Archive y encuéntralo con subtítulos en YouTube.


Si por algún motivo esta entrada no es accesible para tí, por favor escríbenos a comunicaciones@karisma.org.co y haremos los ajustes que estén a nuestro alcance para que puedas acceder al contenido.

Indícanos el título del contenido en el asunto del correo, por ejemplo: Algoritmos racistas

Es fundamental poner el tema en la agenda y nutrir la conversación. ¿Trabajas en un medio de comunicación? Escríbenos a comunicaciones@karisma.org.co.


Acompáñanos en @Karisma en Twitter, Fundación Karisma en Facebook y YouTube, y @karismacol en Instagram y Tik Tok.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.