Ana Valdivia es profesora e investigadora en Inteligencia Artificial, Gobierno y Políticas en el Oxford Internet Institute de la Universidad de Oxford. Matemática e informática, ha estudiado la influencia en las sociedades de la recopilación masiva de datos o el uso de algoritmos en las fronteras. Actualmente su trabajo se centra en los impactos medioambientales y sociales de la inteligencia artificial. Colabora con organizaciones como AlgoRace, que analiza los usos de la IA desde una perspectiva antirracista.
|
etiquetas: ia , informática , antirracismo
Se aplica para todo, desde bases de datos hata para la IA.
si tienes 9 datos en el que pones que las manzanas son roja y uno en que dices que son verdes, la IA creerá que 9 de cada 10 manzanas son rojas cuando no es cierto.
Si le das todos los registros, en los que se habla de naranjas, café, tabaco y manzanas y les preguntas sobre el color de las manzanas te dirá que son rojas… y ese es el problema, que se tienen que seleccionar, y en esa selección es donde puede haber un sesgo, pero puede ser peor que no se seleccione, porque entonces no conoce os la realidad sino la información que existe sobre la realidad.
Pues eso, hace falta ser y estar muy formado para decir perogrulladas ciertas. Por contra para decir perogrulladas falsas ya tenemos a los tierraplanistas, antivacunas, chemtrailetos y unos cuantos partidos políticos por desgracia mayoritarios.
Los datos de entrenamiento definen su criterio y hay que ir haciendo ajustes toda la vida de la ia. El entrenamiento es constante.
Nunca se va a dejar una ia con entrenamiento abierto al público. Los datos de los usuarios se recopilarán, filtrarán y prepararán para su entrenamiento en entornos controlados donde se harán también cambios en el código para evitar respuestas no deseadas.
Se venderán dispositivos con acceso a versiones en solo lectura que se irán parcheando. Dudo que vaya a haberlos funcionando sin acceso a internet.
Las máquinas no aplican sesgos y los humanos sí.
Se espera de los resultados que vengan con el sesgo de los humanos aplicado, pero las máquinas no hacen eso.
Ambos resultados (humanos versus máquinas) no coinciden. Entonces se le buscan explicaciones raras.