5 meneos
57 clics
¿El hombre es al programador lo que la mujer a la limpiadora? Eliminando el sesgo en "word embeddings" [ENG]
La aplicación ciega de las nuevas técnicas de inteligencia artificial puede llevar a una amplificación de los sesgos culturales preexistentes en el corpus de datos usados para "entrenar" los algoritmos. De hecho, es algo que ya ha sucedido, incluso usando como fuente artículos periodísticos escritos por periodistas profesionales. En este artículo se explica una de las aproximaciones más punteras para revertir ese sesgo.
|
comentarios cerrados
"Ingenieros" sociales molestos con la ingeniería (de verdad)
Por tanto, si una IA, basándose en las frecuencias de palabras dentro de textos (no en ningún razonamiento abstracto, ojo), acaba concluyendo esa relación, es que se basa en datos previamente sesgados. Y si de verdad algunos creéis que hay algo de "verdad" en esa conclusión, es que tenéis poca idea sobre la base teórica que fundamenta esas "IAs", sobrevaloráis su capacidad de razonamiento, y además tenéis un sesgo personal bastante acojonante.