Manuela Covaleda Murcia

En el año 2020, Netflix trajo al mundo un documental sobre como, el mismo algoritmo, es racista; algunos de los algoritmos y tecnologías que han sido creadas en los últimos años, son incapces de detectar “pieles negras” o clasificar a una mujer con certeza. Este documental se llama Sesgo Codificado o Coded Bias.

La inteligencia artificial tiene la capacidad de ser autodidacta y enseñarle a los demás algoritmos. Ella se alimenta de los datos que los usuarios de la internet le proporcionamos, el problema es que estas herramientas fueron creadas y testeadas por hombres blancos y esto provoca una discriminación en el sistema y hace que sea peor. “La IA esta creada por humanos que tienen sus propias visiones del mundo y sus sesgos” (Drazer, 2023). Así como también, se alimenta de datos del pasado de temas conservadores.

Las personas mayormente afectadas por estos sesgos son los grupos que han sido vulnerados a lo largo de la historia: personas de color, latinoamericanos, mujeres, personas con discapacidad, etc. el algoritmo falla al menos 100 veces antes de poder identificar a una persona de los grupos previamente mencionados; así como, a demuestra comportamientos sexistas, racistas e incluso antisemitas.

El mayor ejemplo de estos sesgos lo podemos ver en temas de criminalidad. Se ha creado una policía predictiva bajo estas herramientas que han sido entrenadas para valorar, clasificar y evaluar a personas en gran escala. Estos nuevos modelos ayudan a redecir riesgo de seguridad pública. El problema radica en que sigue atacando a comunidades que han sido previamente vulneradas (Gómez, 2021). Así como también el reemplazo de trabajadores por estas nuevas tecnologías y refleja y alerta la baja productiva de trabajadores quite los puede llevar al despido momentáneo.

Somos nosotros los usuarios, quienes podemos combatir este sesgo en estas nuevas herramientas. Debemos entrenar a esta inteligencia y llenarla de datos que incluyen información sobre estas comunidades impactando positivamente en el concepto que ella a creado. De igual manera, es importante realizar controles basados en Ética para eliminar estos sesgos algoritmos y poder fomentar la participación de grupos excluidos. Es necesario priorizar la diversidad, la inclusión y la transparencia; no basta con eliminar la información ya existente, todo lo que interpreta la IA es el reflejo del mundo físico, pasado y actual, que hemos construido y llenado de sociedades injustas y desiguales (Gómez, 2021).

Referencias: Drazer, M. (2023, 23 de noviembre). Inteligencia Artificial: ¿discriminación garantizada?. DW. https://www.dw.com/es/inteligencia-artificial-discriminaci%C3%B3n-garantizada/a-67537041

Gomez, S. (DW). (2021, 7 de abril). ¿Cómo discrimina la Inteligencia Artifical? ¿Quiénes son sus víctimas?. [Vídeo]. YouTube. https://www.youtube.com/watch?v=mWGzicjqAc0