Actualidad y sociedad
17 meneos
46 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear

Pilar Llop, ministra de Justicia: «La inteligencia artificial se construye con algoritmos sexistas»

La ministra de Justicia apuesta por el talento femenino en las jornadas europeas ‘Diálogos sobre el Futuro de la Igualdad’. «Se necesita talento femenino, porque la tecnología se construye con algoritmos sexistas. Aunque parezcan neutros, la mayoría son creados por hombres, donde se generan estereotipos y discriminación a la hora de aplicar esa inteligencia artificial sobre la mujer», señaló la ministra de Justicia española, Pilar Llop,

| etiquetas: pilar llop , justicia , inteligencia artificial , algoritmos sexistas
15 2 10 K 97
15 2 10 K 97
  1. Gensanta, cuanta estupidez
  2. no, no es el mundo today {0x1f610}
  3. Si probablemente una ministra de justicia debería tener problemas para no cagarse encima al hablar de justicia, lo que opine sobre algoritmos de programación nos lo podríamos pasar por el puto forro de los huevos unas diez veces y sin sudar.

    El valor de sus declaraciones es el de cualquier cuñao de tasca tras 5 birras.

    Ojo, que mi opinión siendo informático tendría el mismo valor, pero sin haber empezado a beber.

    No sé que hacen estos subnormales hablando de mierdas tan complejas, la verdad.
  4. Las IAs son sexistas y algo racistas, sí, ya se ha hablado de ello. Pero no es porque "son creados por hombres" sino porque la IA se alimenta con los usos de la gente y hereda los tics sexistas y racistas de la sociedad.
  5. Los grandes avances en inteligencia artificial actuales no están basados en algoritmos sino en redes neuronales. Esta señora no sabe de que habla.
  6. #5 es cierto que la señora no sabe de lo que habla, pero las redes neuronales se entrenan con algoritmos. Y no todos los avances están basados en redes neuronales... será por algoritmos...
    Creo que tú tampoco sabes...
  7. Las IA son reflejos de nuestras imbecilidad es, como nuestros políticos ;)
  8. Traducción simultánea: "No tengo ni puta idea de cómo funciona la IA".
  9. Cuando este tipo de sensacionalismo lo usa la derecha es más fácil de ver.
  10. #1 Pues no lo es tanto. Es sabido que los algoritmos tienen prejuicios ( o más bien, quienes los desarrollan). Publicada en Meneame, por ejemplo: magnet.xataka.com/preguntas-no-tan-frecuentes/por-que-al-algoritmo-de-
  11. #3 Las declaraciones de cuñao de tasca son las tuyas.
  12. #4 También.
  13. #2 Es el "Paleto Today" cada vez que se leen los comentarios a este tipo de noticias en Menéame.
  14. #1 Y la que os queda.
  15. Quita Nature, que Kotsumi sí sabe de verdad cómo funciona una IA y tú no. Que te crees algo por ser la revista científica con factor de impacto más importante del mundo.

    www.nature.com/articles/d41586-018-05707-8
  16. #2 Puede que sea la revista científica con factor de impacto más importante del mundo. Quién sabe.

    www.nature.com/articles/d41586-018-05707-8
  17. #11 qué tendrá que ver quién desarrolle un algoritmo con si el algoritmo funciona o no.

    Es como si me dices que la Teoría de la Relatividad de Einstein no es válida porque el hombre era machista... O el teorema de Pitágoras!
  18. Hay cientos de artículos (¡y libros!) sobre la necesidad (o no, por supuesto) de regular la IA , el "peligro" de los algoritmos o simplemente la necesidad de una IA ética.

    Podremos estar de acuerdo o no con las palabras de la ministra, pero es un debate que existe como para despreciarlo directamente por aversión al color político o al tema al que lo enfoca.

    Buscando en Google se puede encontrar fácilmente muchos artículos sobre la necesidad de regular la IA. Los primeros resultados que encuentro castellano (sin entrar en el contenido)
    www.bbva.com/es/opinion/que-habria-que-tener-en-cuenta-si-se-va-a-regu
    www.expansion.com/economia-digital/innovacion/2020/03/01/5e56abf0468ae
    www.ccb.org.co/Clusters/Cluster-de-Software-y-TI/Noticias/2017/Septiem
    es.euronews.com/2021/04/20/la-primera-propuesta-europea-para-regular-l

    En inglés:
    link.springer.com/article/10.1007/s00146-019-00920-z
    digital-strategy.ec.europa.eu/en/policies/european-approach-artificial
    link.springer.com/article/10.1007/s43681-021-00052-5
    hbr.org/2021/09/ai-regulation-is-coming
  19. #16 el artículo que enlazas no dice nada de algoritmos sexistas...
    La ministra demuestra en una frase que no sabe de lo que habla...
  20. Ella prefiere una IA libre se esos sesgos machistas, como la que aprueba el genocidio sin ningun tipo de discriminación con base en el sexo.
  21. Hola #18 . No entiendo tu respuesta :(. Yo no he entrado en si funciona o no, sino que he compartido una noticia dónde se da un ejemplo de algoritmo racista. Y lo es, comos e explica, porque los que lo programan tienen ideología, entendida como un conjunto de creencias y valores (cómo no podría ser de otra forma). No sé si estamos debatiendo de lo mismo o te he malinterpretado.
  22. #20 Nadie dice que no.
  23. #6 Por favor no digas barbaridades hombre, las redes neuronales se entrenan con ejemplos, no con algoritmos.
  24. #4 Realmente se alimenta de datos, y éstos no son ni sexistas ni racistas, sino únicamente datos.

    El problema es entrenar al algoritmo con datos que puedan producir un sesgo. Si le pasas datos que indican que el 60% de los crímenes los cometen negros, siendo el 20% de la población (por ejemplo), el algoritmo deducirá que el hecho de ser negro es un claro indicador de criminalidad.
  25. #10 mejor hablar de "sesgos raciales o de género" más que decir machista o racista, no es lo mismo (en el contexto este, claro).
  26. #25 pfffff

    scholar.google.es/scholar?q=training+algorithm+neural+networks

    o pásate simplemente por aquí, que creo que no sabes ni lo que es una red neuronal...

    es.wikipedia.org/wiki/Red_neuronal_artificial
  27. #20 "... con base en..."
  28. #19 si meten el sensacionalismo en esto que es fácil de detectar que no harán en cosas que pilotas menos.
    en fin. El que gobierne, debería hacerlo sin hacer este tipo de argucias. Y más si va de ser justos. Etc.

    que nos pasa lo mismo de siempre luego. No será por ejemplos, "en capítulos anteriores..."
    que el poder es muy goloso.
  29. #30 lo digo en el sentido de que, a diferencia de un humano, una IA, si tiene algún sesgo de esos, no es "intencionado", no se si me explico, en el caso de un humano, el racismo o el machismo sí conllevan una "mala intención" y una percepción de los demás de una manera totalmente parcial, eso no se aplica a una IA.
  30. #21 El texto del titular del artículo dice exactamente eso y tú dices que no, toma ya xD

    Eres el claro ejemplo de disonancia cognitiva y bajas capacidades del ser medio de la ralea ultra xD
  31. #36 dice que la inteligencia artificial puede ser sexista, no que los algoritmos sean sexistas...
    y no te estarás refiriendo a mí como "ralea ultra", que ya habría que ser imbécil...
  32. #11 El sesgo está en los datos con que se entrena una IA, no en los algoritmos en si
  33. #3 Pues yo pienso lo contrario. La ministra de justicia debería esta muy al tanto de los avances en IA porque no debe de quedar mucho tiempo para que haya juicios donde la "acusada" sea una red neuronal y haya que dilucidar quién es el responsable subsidiario. Si un dispositivo inteligente hace algo ilegal autónomamente va a haber que discernir si ha sido a causa de los embeddings de Google, del task adaptation posterior que ha hecho la empresa que vendió el dispositivo o de lo que haya aprendido por reinforcement learning una vez en manos del comprador.
  34. #19 imagina que la noticia fuera de unas declaraciones sobre "delincuencia" desde un ministro de derechas (imagina el caso que hay muchos)
    podías decir lo mismo de la medias verdades y limar importancia a lo tendencioso de quien lo ha formulado.
    flaco favor te estarías haciendo.
    pues con esto pasa lo mismo.
  35. #35 El comentario me parece correcto, sólo objeto el uso de "en base a" en lugar de "con base en". Y, de hecho, usaste un correcto "se basan en".
    Disculpa la molestia.
  36. #31 Por favor, déjalo ya hombre. No ves que estamos diciendo lo mismo todos menos tu?
  37. Esta gigante mental es capaz de creerse que un algoritmo escrito por mujeres no haría exactamente lo mismo.

    En Google acertaron con una cosa. Un no programador no puede ser el jefe de un programador. La de gilipolleces que ha evitado eso.
  38. #19 Que lo que quiere decir es que cuando un algoritmo toma una decisión, queremos que aplique los mismos sesgos que aplicaría una persona, pero esto es muy complicado de hacer, especialmente cuando se trata de sesgos injustos.
  39. #14 cuéntame: cómo se hace un algoritmo sexista?

    #17 "AI can be sexist and racist" implica que la inteligencia artificial se construye con algoritmos sexistas? No, si lees la simple entradilla ves que se refiere a los datos con los que se alimenta. Alguien en este hilo tuvo a bien meter una "noticia" de xataka sobre lo racista que es el algoritmo de Google. El algoritmo de Google se nutre de los datos que los usuarios le dan. Una IA será tan X-ista como los datos que se le proporcionen. El algoritmo tiene poco que ver
  40. #45 ¿pero quiénes sois todos? Si te he puesto enlaces para que veas que has patinado y que lo que estoy diciendo es obvio y comprobable con una búsqueda en Google... :shit:
    Lo tienes en la wikipedia y miles de publicaciones científicas... pero supongo que "todos" sois tú, y otro meneante más, que es un ignorante... xD
  41. #20 Pasó una vez en una empresa, que pusieron la selección de nuevo personal en manos de una IA. El trasto usó como base de partida los informes de rendimiento de los empleados actuales, y dedujo no aceptar a ninguna mujer.

    La decisión la consideramos inaceptable, pero sexista no es, porque una máquina no sabe hacer eso del sexismo.
  42. #10 se lo suficiente de inteligencia artificial como para ser consciente de lo poco que se de inteligencia artificial, eso me coloca en una posición de "mejor no voy a hablar de esto" cosa que más de uno sobre todo si es ministro, debería hacer.

    De primeras apuntaré a un hecho, el algoritmo de aprendizaje es una cosa, y la fuente de la que pueda aprender es otra.

    Así que tú y la ministra, en un segundo, ya no hablais de lo mismo, y si, ambas cosas pueden tener sesgos, o no tenerlos.

    Y no te lo tomes como una crítica, es que he estudiado lo suficiente sobre el tema como para aprender lo más básico y querer olvidarme de ello.
  43. #12 si relees mi comentario, verás que ya he dejado claro ese punto, se lo suficiente de IA, para saber que cualquier comentario sobre el tema que haga, es cuñadil, la gracia es estudie IA en la carrera, y eso me coloca con "más conocimiento" que la mayoría de los que posteen en este hilo hoy.
  44. #4 la ministra está hablando de los algoritmos, y tú del recurso de datos.

    No hablais de lo mismo.

    PD, en ambas cosas puede existir un sesgo, y puede no haberlo.
  45. #49 Pues nada, para ti la peseta, esta claro que no puedo competir contigo que hoy eres experto informático, hace un rato experto en textil, ayer experto en leyes de circulación, antes experto en política exterior y política nacional, sabes de dios y de los extraterrestres, de Madrid, de Lugo y de homosexuales, de medicina, de economía, de casas de apuestas.
    Y todo esto mirando 2 paginas de tus comentarios.
    Me doblo ante ti y te doy la razón en todo, Marhuenda a tu lado es un paleto.
    Ala adiós muy buenas que vas para el ignore de cabeza {0x1f602} {0x1f602} {0x1f602}
  46. #_55 gran argumentación, bravo
  47. #10 continuo lo que he dicho en #52

    para dejar claro el tema del todo, y después de esto voy a intentar no mojarme mas.

    El recurso de datos puede estar contaminado con sesgos ideológicos que influyan en el resultado final de la IA, y eso es bastante incontrolable, la IA será tan racista, machista o vegana como la red social/foro sobre la que se lance su aprendizaje.

    El algoritmo es casi imposible que este contaminado si no es a propósito, alguien tendría que dar más peso a un parámetro de tipo "blanco", "Hombre", "Animalista" para que eso ocurriera, y dudo que los programadores aunque sean hombres lo hagan a propósito.

    Si, la IA podría llegar a pensar que el valor de la opinión de un hombre blanco es superior que la de una mujer negra, pero eso de nuevo... Lo aprendería del recurso de datos.

    Para que te hagas una idea de la subnormalez que es culpar a los programadores de sexo masculino.

    Y ya lo dejo, porque me estoy metiendo hasta la rodilla en aguas donde mis conocimientos no se sienten del todo cómodos.
  48. #23 algoritmo
    nombre masculino
    MATEMÁTICAS
    Conjunto ordenado de operaciones sistemáticas que permite hacer un cálculo y hallar la solución de un tipo de problemas.
    "debes conocer el algoritmo que se emplea para hallar las raíces cuadradas".

    No veo cómo diablos una operación matemática puede ser racista.
  49. #48 Pues "hinjeniero", si el algoritmo lo programa un menda como tú, para lo que te da el coco, será sexista. El algoritmo se basa en unos criterios humanos que filtran la información, no es una ruleta del casino de Benidorm. ¿Lo entiendes?
  50. #41 estoy de acuerdo de que debería estar al tanto.

    No lo está.
  51. #5 En realidad tanto da. En ninguno de los casos tienen capacidad de aplicar sesgos.
  52. #59 si la información se filtra por género es sexista, si no se tiene en cuenta el género no. Esto es como el bot de Microsoft que tuvieron que retirar, las IAs aprenden con los datos que se les dan (www.engadget.com/2016-03-24-microsoft-tay-ai-grounded.html). Pero nada, con tu ad hominem insulto mediante estoy segurísimo que tienes argumentos de peso de cómo funcionan
  53. #3 hasta que legisla para cerrar tal o cual empresa porque sus algoritmos no son multiculturales.
    Así que lo que diga esta señora nos afecta a todos.
  54. #11 En todo caso, y tratándose de IA, más bien puede serlo el material con el que se entrena esa IA, y también depende de cómo sea de dirigido ese entrenamiento.

    Lo que queda claro es que esta señora no tiene en absoluto idea de lo que habla. Nada que no supiésemos porque ya se sabía de qué pie cojea.
  55. #63 "a lo que se refería es que el conjunto de una IA (algoritmo más fuente de aprendizaje) se construye a partir, precisamente, de una fuente de informacion para el aprendizaje llena de sesgos,"

    No, ella habla directamente de los programadores de sexo masculino y del algoritmo que han programado, no de los sesgos provenientes de los datos, y lo dice diciendo que por ESO, se necesitan más programadoras.

    Lógicamente lo dice desde la ignorancia más absoluta, y si ella o el asesor de turno se hubieran informado algo, probablemente lo hubiera dicho de otra forma (dejando a los programadores masculinos mal por el camino de alguna ingeniosa forma)

    Y el contexto es el que es, esta soltando un discurso de mujeres para mujeres en las TICs (lo de la IA es solo una pequeña parte) y echar una pedrada a los programadores másculinos se ve que debe vender (no tengo claro que venda tanto).

    Personalmente, trabajo en una oficina llena de programadoras, mi realidad sobre "solo los tíos desarrollan software" es diferente a la de esta señora, aunque también es cierto, que hace 20 años, había muy pocas mujeres en mi carrera"
  56. Las IA no aprenden, procesan la información según las pautas que se les dan. Si en el algoritmo vuelcas información de los que votan negativo las noticias feministas en Menéame tendrás un algoritmo con criterios de palurdo.

    Y yo no te he insultado, a no ser que tu nick, "hinjeniero", sea un auto-insulto que te haces, que podría entenderlo.
  57. #53 Ah, cuñao, pero con carrera.
  58. #69 no no, sin carrera. Seguro que la ministra me da veinte millones de vueltas en el tema.
  59. Necesitaría ejemplos concretos sobre ese sexismo que dice la ministra, para poder opinar con fundamento.

    Si, pongamos el caso, una IA tiene en cuenta el sexo para mostrar inicialmente unos u otros productos en una tienda, si esa variable es verdaderamente significativa, no es que la IA sea sexista, es que está bien hecha. Quiero decir: un programador o programadora que ignore la variable del sexo en un conjunto de datos donde el sexo es relevante, estaría simplemente haciendo mal su trabajo, porque su objetivo es que la IA muestre los productos que probablemente interesen más al usuario, sin importar los motivos por los que esa variable está siendo significativa.
comentarios cerrados

menéame