edición general
26 meneos
38 clics

Ana Valdiva, invetigadora en IA de la Universidad de Oxford: “Si el algoritmo es racista es porque se ha entrenado con datos racistas”

Ana Valdivia es profesora e investigadora en Inteligencia Artificial, Gobierno y Políticas en el Oxford Internet Institute de la Universidad de Oxford. Matemática e informática, ha estudiado la influencia en las sociedades de la recopilación masiva de datos o el uso de algoritmos en las fronteras. Actualmente su trabajo se centra en los impactos medioambientales y sociales de la inteligencia artificial. Colabora con organizaciones como AlgoRace, que analiza los usos de la IA desde una perspectiva antirracista.

| etiquetas: ia , informática , antirracismo
  1. Gracias Ana.
  2. «La inteligencia artificial no es una solución a ningún problema estructural. Se tendría que poner como una herramienta de ayuda ante un sistema público bien financiado y con trabajadores en buenas condiciones.»
  3. De toda la vida de la informática: Garbage in, garbage out.

    Se aplica para todo, desde bases de datos hata para la IA.
  4. Y no solo racista, ChatGPT tiene un sesgo anglosajón que a mí por lo menos, me apesta bastante.....
  5. #2 la selección o más bien la falta de selección es el problema.

    si tienes 9 datos en el que pones que las manzanas son roja y uno en que dices que son verdes, la IA creerá que 9 de cada 10 manzanas son rojas cuando no es cierto.

    Si le das todos los registros, en los que se habla de naranjas, café, tabaco y manzanas y les preguntas sobre el color de las manzanas te dirá que son rojas… y ese es el problema, que se tienen que seleccionar, y en esa selección es donde puede haber un sesgo, pero puede ser peor que no se seleccione, porque entonces no conoce os la realidad sino la información que existe sobre la realidad.
  6. #5 normal, así cuando llegue el momento sabrá quién es el enemigo al que lanzar las bombas
  7. #4 Y también para las personas.
  8. jajá... toda una investigadora diciendo perogrulladas a cada cual más simple... no me digas...

    Pues eso, hace falta ser y estar muy formado para decir perogrulladas ciertas. Por contra para decir perogrulladas falsas ya tenemos a los tierraplanistas, antivacunas, chemtrailetos y unos cuantos partidos políticos por desgracia mayoritarios.
  9. Es de las cosas que más hay que explicar de las IAs a la gente.

    Los datos de entrenamiento definen su criterio y hay que ir haciendo ajustes toda la vida de la ia. El entrenamiento es constante.

    Nunca se va a dejar una ia con entrenamiento abierto al público. Los datos de los usuarios se recopilarán, filtrarán y prepararán para su entrenamiento en entornos controlados donde se harán también cambios en el código para evitar respuestas no deseadas.

    Se venderán dispositivos con acceso a versiones en solo lectura que se irán parcheando. Dudo que vaya a haberlos funcionando sin acceso a internet.
  10. Esto de los "datos racistas" no suele ser cierto.

    Las máquinas no aplican sesgos y los humanos sí.

    Se espera de los resultados que vengan con el sesgo de los humanos aplicado, pero las máquinas no hacen eso.

    Ambos resultados (humanos versus máquinas) no coinciden. Entonces se le buscan explicaciones raras.
  11. #2 a lo mejor lo que ha querido decir es que es posible que los datos son objetivos, pero que las conclusiones alcanzadas están sesgadas
  12. #_12 Vamos, que no sabes nada del tema en cuestión, pero eso no te ha impedido dejar constancia de ello...
comentarios cerrados

menéame