Comunicacion e Interactividad 2664

La wiki de la comunidad de comunicación e interactividad - 2664

Herramientas de usuario

Herramientas del sitio


contenidos:discriminacion_y_sesgos_por_los_algortimos

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Próxima revisión
Revisión previa
contenidos:discriminacion_y_sesgos_por_los_algortimos [2025/03/01 14:20] – creado Manuela Covaleda Murciacontenidos:discriminacion_y_sesgos_por_los_algortimos [2025/03/02 13:28] (actual) Manuela Covaleda Murcia
Línea 1: Línea 1:
 +Manuela Covaleda Murcia
 +
 En el año 2020, Netflix trajo al mundo un documental sobre como, el mismo algoritmo, es racista; algunos de los algoritmos y tecnologías que han sido creadas en los últimos años, son incapces de detectar "pieles negras" o clasificar a una mujer con certeza. Este documental se llama //Sesgo Codificado// o //Coded Bias//. En el año 2020, Netflix trajo al mundo un documental sobre como, el mismo algoritmo, es racista; algunos de los algoritmos y tecnologías que han sido creadas en los últimos años, son incapces de detectar "pieles negras" o clasificar a una mujer con certeza. Este documental se llama //Sesgo Codificado// o //Coded Bias//.
  
-La inteligencia artificial aprende sola le enseña a los demás algortimosNecesita enermoescantidades de datos, pero nosotros generamos esos datos. Eliminar informaciones que tiene la inteligencia no es suficiente  +La inteligencia artificial tiene la capacidad de ser autodidacta enseñarle a los demás algoritmosElla se alimenta de los datos que los usuarios de la internet le proporcionamos, el problema es que estas herramientas fueron creadas testeadas por hombres blancos y esto provoca una discriminación en el sistema hace que sea peor“La IA esta creada por humanos que tienen sus propias visiones del mundo y sus sesgos” (Drazer2023)Así como tambiénse alimenta de datos del pasado de temas conservadores.
- +
-La mayoría de algoritmos que existen fueron creados testeados por hombres blancos y esto hace que la discriminación se vaya a estos sistemas +
- +
-A mayor información en las bases de datos mayor diversos, mejor proda reconcoer la tecnología la diversidad humana +
- +
-Hardware, hombre blanco en foco, así fue construidoTodo parte del hombre blanco, no consideran a humanos con otro color de piel que reflejan la luz de otra manera  +
- +
-Lo importante es como interactuamos con las tecnologías. Como lo aliemtnamos e interactuamos con éldiscusión de base sobre la inclusion, discriminacion, significado e implicaciones +
- +
-Cpámaras Hawei reconoce rostros de diferentes etnias con ayuda de la inteligencia artificialEdadsexo, procedencia etnica. Se entrena con bases de datos perteniencias a etnias y no para que sepa de donde son. Ayuda con la policia  +
-No hay nada mejor que la info de los ausuaroos para afianr el ojo del racismo del argoritmo +
- +
-Se utilizan para valorar, clasifciar y evaluar a las perosnas a gran escala. Especialmente en el sistema judicial para predcecir riesgos de seguridad publica +
- +
-Policia predictiva, bajo los algoritmos de localizacion: vinculos entre lugares, crimenes y tasas de criminalidad apra predecir donde y cuando es más probable que se cometa un delito+
  
-Teroia de la repiticion cercanaun criminal suele atacar de nuevo poco después cerca de la primera escena del crimer+Las personas mayormente afectadas por estos sesgos son los grupos que han sido vulnerados a lo largo de la historiapersonas de color, latinoamericanos, mujeres, personas con discapacidad, etc. el algoritmo falla al menos 100 veces antes de poder identificar a una persona de los grupos previamente mencionados; así como, a demuestra comportamientos sexistas, racistas e incluso antisemitas.
  
-Datos sobre personas, edad, sexo, estado civil, antecedentes para predecir quienes tienen más posibildiades de aprticipar en la delincuneciaPredecir que tan probable es que un condenado vuekva comerter un deltio +El mayor ejemplo de estos sesgos lo podemos ver en temas de criminalidadSe ha creado una policía predictiva bajo estas herramientas que han sido entrenadas para valorar, clasificar y evaluar a personas en gran escala. Estos nuevos modelos ayudan a redecir riesgo de seguridad pública. El problema radica en que sigue atacando comunidades que han sido previamente vulneradas (Gómez, 2021). Así como también el reemplazo de trabajadores por estas nuevas tecnologías y refleja y alerta la baja productiva de trabajadores quite los puede llevar al despido momentáneo. 
  
-Las bases de datos no son suficientes para predecir como se mueven banddas criminales+Somos nosotros los usuarios, quienes podemos combatir este sesgo en estas nuevas herramientas. Debemos entrenar a esta inteligencia y llenarla de datos que incluyen información sobre estas comunidades impactando positivamente en el concepto que ella a creado. De igual manera, es importante realizar controles basados en Ética  para eliminar estos sesgos algoritmos y poder fomentar la participación de grupos excluidos. Es necesario priorizar la diversidad, la inclusión y la transparencia; no basta con eliminar la información ya existente, todo lo que interpreta la IA es el reflejo del mundo físico, pasado y actual, que hemos construido y llenado de sociedades injustas y desiguales (Gómez, 2021).
  
-Fallan al menos 100 veces para identificar a personas asiaticas, negros o latinoamericanos a diferencias de persoans blancas.  
  
-Púede ser muy perjudicialsexista, racista, extremaamente injustaHasta puede ser antisemita+{{ :contenidos:la-inteligencia-artificial-reproduce-el-racismo-y-el-sexismo-del-lenguaje.jpg?direct&400 |}}
  
-Los datos de los que se alimentan provienen del apsado. De temas conservadores +Referencias: 
-Es poco realista esperar quue se comperte de manera justa e igualitaria si los datos en los que se basa no son+Drazer, M. (2023, 23 de noviembre). Inteligencia Artificial: ¿discriminación garantizada?. //DW//. https://www.dw.com/es/inteligencia-artificial-discriminaci%C3%B3n-garantizada/a-67537041
  
-En la IAsi los datos que ella consume para entrenarse, no son bien elegidos nada funcioanra bien despuésNo importa la información adicional que le demosLos más afectados siempre son los más vulnerables. Debe pasar por controles éticos, de otro lado que las imagenes catalogadas y la prediciones del criemn evidenciaen prejuidicos y racismo es el reflejo de sociedad injustas y desiguales +GomezS(DW)(2021de abril).// ¿Cómo discrimina la Inteligencia Artifical? ¿Quiénes son sus víctimas?.// [Vídeo]. YouTube. https://www.youtube.com/watch?v=mWGzicjqAc0
  
contenidos/discriminacion_y_sesgos_por_los_algortimos.1740867621.txt.gz · Última modificación: 2025/03/01 14:20 por Manuela Covaleda Murcia