contenidos:discriminacion_y_sesgos_por_los_algortimos
Diferencias
Muestra las diferencias entre dos versiones de la página.
| Próxima revisión | Revisión previa | ||
| contenidos:discriminacion_y_sesgos_por_los_algortimos [2025/03/01 14:20] – creado Manuela Covaleda Murcia | contenidos:discriminacion_y_sesgos_por_los_algortimos [2025/03/02 13:28] (actual) – Manuela Covaleda Murcia | ||
|---|---|---|---|
| Línea 1: | Línea 1: | ||
| + | Manuela Covaleda Murcia | ||
| + | |||
| En el año 2020, Netflix trajo al mundo un documental sobre como, el mismo algoritmo, es racista; algunos de los algoritmos y tecnologías que han sido creadas en los últimos años, son incapces de detectar " | En el año 2020, Netflix trajo al mundo un documental sobre como, el mismo algoritmo, es racista; algunos de los algoritmos y tecnologías que han sido creadas en los últimos años, son incapces de detectar " | ||
| - | La inteligencia artificial | + | La inteligencia artificial |
| - | + | ||
| - | La mayoría de algoritmos | + | |
| - | + | ||
| - | A mayor información | + | |
| - | + | ||
| - | Hardware, hombre blanco en foco, así fue construido. Todo parte del hombre blanco, no consideran a humanos | + | |
| - | + | ||
| - | Lo importante es como interactuamos con las tecnologías. Como lo aliemtnamos e interactuamos con él, discusión de base sobre la inclusion, discriminacion, | + | |
| - | + | ||
| - | Cpámaras Hawei reconoce rostros de diferentes etnias con ayuda de la inteligencia artificial. Edad, sexo, procedencia etnica. Se entrena con bases de datos perteniencias a etnias y no para que sepa de donde son. Ayuda con la policia | + | |
| - | No hay nada mejor que la info de los ausuaroos para afianr el ojo del racismo del argoritmo | + | |
| - | + | ||
| - | Se utilizan para valorar, clasifciar y evaluar a las perosnas a gran escala. Especialmente en el sistema judicial para predcecir riesgos | + | |
| - | + | ||
| - | Policia predictiva, bajo los algoritmos de localizacion: | + | |
| - | Teroia | + | Las personas mayormente afectadas por estos sesgos son los grupos que han sido vulnerados a lo largo de la historia: personas |
| - | Datos sobre personas, edad, sexo, estado civil, antecedentes para predecir quienes tienen más posibildiades | + | El mayor ejemplo |
| - | Las bases de datos no son suficientes | + | Somos nosotros los usuarios, quienes podemos combatir este sesgo en estas nuevas herramientas. Debemos entrenar a esta inteligencia y llenarla |
| - | Fallan al menos 100 veces para identificar a personas asiaticas, negros o latinoamericanos a diferencias de persoans blancas. | ||
| - | Púede ser muy perjudicial: sexista, racista, extremaamente injusta. Hasta puede ser antisemita | + | {{ :contenidos: |
| - | Los datos de los que se alimentan provienen del apsado. De temas conservadores | + | Referencias: |
| - | Es poco realista esperar quue se comperte | + | Drazer, M. (2023, 23 de noviembre). Inteligencia Artificial: ¿discriminación garantizada? |
| - | En la IA, si los datos que ella consume para entrenarse, no son bien elegidos nada funcioanra bien después. No importa la información adicional que le demos. Los más afectados siempre son los más vulnerables. Debe pasar por controles éticos, de otro lado que las imagenes catalogadas y la prediciones del criemn evidenciaen prejuidicos y racismo es el reflejo de sociedad injustas y desiguales | + | Gomez, S. (DW). (2021, 7 de abril).// ¿Cómo discrimina |
contenidos/discriminacion_y_sesgos_por_los_algortimos.1740867621.txt.gz · Última modificación: 2025/03/01 14:20 por Manuela Covaleda Murcia
