¡Esta es una revisión vieja del documento!
En el año 2020, Netflix trajo al mundo un documental sobre como, el mismo algoritmo, es racista; algunos de los algoritmos y tecnologías que han sido creadas en los últimos años, son incapces de detectar “pieles negras” o clasificar a una mujer con certeza. Este documental se llama Sesgo Codificado o Coded Bias.
La inteligencia artificial aprende sola y le enseña a los demás algortimos. Necesita enermoescantidades de datos, pero nosotros generamos esos datos. Eliminar informaciones que tiene la inteligencia no es suficiente
La mayoría de algoritmos que existen fueron creados y testeados por hombres blancos y esto hace que la discriminación se vaya a estos sistemas
A mayor información en las bases de datos y mayor diversos, mejor proda reconcoer la tecnología la diversidad humana
Hardware, hombre blanco en foco, así fue construido. Todo parte del hombre blanco, no consideran a humanos con otro color de piel que reflejan la luz de otra manera
Lo importante es como interactuamos con las tecnologías. Como lo aliemtnamos e interactuamos con él, discusión de base sobre la inclusion, discriminacion, significado e implicaciones
Cpámaras Hawei reconoce rostros de diferentes etnias con ayuda de la inteligencia artificial. Edad, sexo, procedencia etnica. Se entrena con bases de datos perteniencias a etnias y no para que sepa de donde son. Ayuda con la policia No hay nada mejor que la info de los ausuaroos para afianr el ojo del racismo del argoritmo
Se utilizan para valorar, clasifciar y evaluar a las perosnas a gran escala. Especialmente en el sistema judicial para predcecir riesgos de seguridad publica
Policia predictiva, bajo los algoritmos de localizacion: vinculos entre lugares, crimenes y tasas de criminalidad apra predecir donde y cuando es más probable que se cometa un delito.
Teroia de la repiticion cercana: un criminal suele atacar de nuevo poco después cerca de la primera escena del crimer
Datos sobre personas, edad, sexo, estado civil, antecedentes para predecir quienes tienen más posibildiades de aprticipar en la delincunecia. Predecir que tan probable es que un condenado vuekva a comerter un deltio
Las bases de datos no son suficientes para predecir como se mueven banddas criminales
Fallan al menos 100 veces para identificar a personas asiaticas, negros o latinoamericanos a diferencias de persoans blancas.
Púede ser muy perjudicial: sexista, racista, extremaamente injusta. Hasta puede ser antisemita
Los datos de los que se alimentan provienen del apsado. De temas conservadores Es poco realista esperar quue se comperte de manera justa e igualitaria si los datos en los que se basa no son
En la IA, si los datos que ella consume para entrenarse, no son bien elegidos nada funcioanra bien después. No importa la información adicional que le demos. Los más afectados siempre son los más vulnerables. Debe pasar por controles éticos, de otro lado que las imagenes catalogadas y la prediciones del criemn evidenciaen prejuidicos y racismo es el reflejo de sociedad injustas y desiguales
