8 meneos
56 clics
Los fallos de la IA: de algoritmos sesgados a decisiones trágicas
A diferencia de los humanos, los modelos de IA no evolucionan con los cambios en los valores y normas sociales. Sus acciones son un reflejo directo de las instrucciones que les proporcionamos y son tan buenos como los datos con los que se entrenan. Si los datos contienen sesgos, los modelos inevitablemente reproducirán esos sesgos. Esto subraya la necesidad urgente de prácticas responsables en IA.
|
comentarios cerrados
Respecto a la conducción autónoma, ¿cómo esperan conseguir muchos datos de entrenamiento de situaciones poco frecuentes si son... poco frecuentes?
El tema es que por mucho que los entrenes con una calidad de datos elevada siempre habrá fenómenos y eventos dinámicos no predecibles y críticos que quedarían fuera del entrenamiento. Por eso la IA es peligrosa para aplicaciones críticas en que un error es intolerable; y es aceptable para chorradas, determinadas fases de la productividad y procesos en que los errores son tolerables (sin contar deepfakes, bullying, desinformación y demás).
Me pinchas y no sangro.
Solo une datos que estadisticamente son coherentes.
Los modelos de IA justo lo que hacen es evolucionar... si los entrenas periódicamente con nuevos valores.
Están pensados para ello y, de hecho, es parte de las buenas prácticas, actualizar las fuentes de datos con los nuevos eventos cada cierto periodo de tiempo.
Una IA que predice cualquier suceso cambiante (el precio de la vivienda, la renta media de una zona, la demanda de electricidad, el… » ver todo el comentario
Recuerdo un caso muy sonado de que una IA que predecía la evolución del precio de la vivienda con mucha exactitud en una ciudad dejó de hacerlo al usarse en otra ciudad, a pesar de estar entrenada con los datos de esa ciudad, de la misma forma que funcionaba correctamente en otras ciudades... resultó que uno de los indices muy importantes era la zona… » ver todo el comentario