contenidos:discriminacion_y_sesgos_por_los_algortimos

¡Esta es una revisión vieja del documento!


En el año 2020, Netflix trajo al mundo un documental sobre como, el mismo algoritmo, es racista; algunos de los algoritmos y tecnologías que han sido creadas en los últimos años, son incapces de detectar “pieles negras” o clasificar a una mujer con certeza. Este documental se llama Sesgo Codificado o Coded Bias.

La inteligencia artificial aprende sola y le enseña a los demás algortimos. Necesita enermoescantidades de datos, pero nosotros generamos esos datos. Eliminar informaciones que tiene la inteligencia no es suficiente

La mayoría de algoritmos que existen fueron creados y testeados por hombres blancos y esto hace que la discriminación se vaya a estos sistemas

A mayor información en las bases de datos y mayor diversos, mejor proda reconcoer la tecnología la diversidad humana

Hardware, hombre blanco en foco, así fue construido. Todo parte del hombre blanco, no consideran a humanos con otro color de piel que reflejan la luz de otra manera

Lo importante es como interactuamos con las tecnologías. Como lo aliemtnamos e interactuamos con él, discusión de base sobre la inclusion, discriminacion, significado e implicaciones

Cpámaras Hawei reconoce rostros de diferentes etnias con ayuda de la inteligencia artificial. Edad, sexo, procedencia etnica. Se entrena con bases de datos perteniencias a etnias y no para que sepa de donde son. Ayuda con la policia No hay nada mejor que la info de los ausuaroos para afianr el ojo del racismo del argoritmo

Se utilizan para valorar, clasifciar y evaluar a las perosnas a gran escala. Especialmente en el sistema judicial para predcecir riesgos de seguridad publica

Policia predictiva, bajo los algoritmos de localizacion: vinculos entre lugares, crimenes y tasas de criminalidad apra predecir donde y cuando es más probable que se cometa un delito.

Teroia de la repiticion cercana: un criminal suele atacar de nuevo poco después cerca de la primera escena del crimer

Datos sobre personas, edad, sexo, estado civil, antecedentes para predecir quienes tienen más posibildiades de aprticipar en la delincunecia. Predecir que tan probable es que un condenado vuekva a comerter un deltio

Las bases de datos no son suficientes para predecir como se mueven banddas criminales

Fallan al menos 100 veces para identificar a personas asiaticas, negros o latinoamericanos a diferencias de persoans blancas.

Púede ser muy perjudicial: sexista, racista, extremaamente injusta. Hasta puede ser antisemita

Los datos de los que se alimentan provienen del apsado. De temas conservadores Es poco realista esperar quue se comperte de manera justa e igualitaria si los datos en los que se basa no son

En la IA, si los datos que ella consume para entrenarse, no son bien elegidos nada funcioanra bien después. No importa la información adicional que le demos. Los más afectados siempre son los más vulnerables. Debe pasar por controles éticos, de otro lado que las imagenes catalogadas y la prediciones del criemn evidenciaen prejuidicos y racismo es el reflejo de sociedad injustas y desiguales

contenidos/discriminacion_y_sesgos_por_los_algortimos.1740867621.txt.gz · Última modificación: 2025/03/01 14:20 por Manuela Covaleda Murcia