La ministra de Justicia apuesta por el talento femenino en las jornadas europeas ‘Diálogos sobre el Futuro de la Igualdad’. «Se necesita talento femenino, porque la tecnología se construye con algoritmos sexistas. Aunque parezcan neutros, la mayoría son creados por hombres, donde se generan estereotipos y discriminación a la hora de aplicar esa inteligencia artificial sobre la mujer», señaló la ministra de Justicia española, Pilar Llop,
|
etiquetas: pilar llop , justicia , inteligencia artificial , algoritmos sexistas
El valor de sus declaraciones es el de cualquier cuñao de tasca tras 5 birras.
Ojo, que mi opinión siendo informático tendría el mismo valor, pero sin haber empezado a beber.
No sé que hacen estos subnormales hablando de mierdas tan complejas, la verdad.
Creo que tú tampoco sabes...
www.nature.com/articles/d41586-018-05707-8
www.nature.com/articles/d41586-018-05707-8
Es como si me dices que la Teoría de la Relatividad de Einstein no es válida porque el hombre era machista... O el teorema de Pitágoras!
Podremos estar de acuerdo o no con las palabras de la ministra, pero es un debate que existe como para despreciarlo directamente por aversión al color político o al tema al que lo enfoca.
Buscando en Google se puede encontrar fácilmente muchos artículos sobre la necesidad de regular la IA. Los primeros resultados que encuentro castellano (sin entrar en el contenido)
www.bbva.com/es/opinion/que-habria-que-tener-en-cuenta-si-se-va-a-regu
www.expansion.com/economia-digital/innovacion/2020/03/01/5e56abf0468ae
www.ccb.org.co/Clusters/Cluster-de-Software-y-TI/Noticias/2017/Septiem
es.euronews.com/2021/04/20/la-primera-propuesta-europea-para-regular-l
En inglés:
link.springer.com/article/10.1007/s00146-019-00920-z
digital-strategy.ec.europa.eu/en/policies/european-approach-artificial
link.springer.com/article/10.1007/s43681-021-00052-5
hbr.org/2021/09/ai-regulation-is-coming
La ministra demuestra en una frase que no sabe de lo que habla...
El problema es entrenar al algoritmo con datos que puedan producir un sesgo. Si le pasas datos que indican que el 60% de los crímenes los cometen negros, siendo el 20% de la población (por ejemplo), el algoritmo deducirá que el hecho de ser negro es un claro indicador de criminalidad.
scholar.google.es/scholar?q=training+algorithm+neural+networks
o pásate simplemente por aquí, que creo que no sabes ni lo que es una red neuronal...
es.wikipedia.org/wiki/Red_neuronal_artificial
en fin. El que gobierne, debería hacerlo sin hacer este tipo de argucias. Y más si va de ser justos. Etc.
que nos pasa lo mismo de siempre luego. No será por ejemplos, "en capítulos anteriores..."
que el poder es muy goloso.
Eres el claro ejemplo de disonancia cognitiva y bajas capacidades del ser medio de la ralea ultra
y no te estarás refiriendo a mí como "ralea ultra", que ya habría que ser imbécil...
podías decir lo mismo de la medias verdades y limar importancia a lo tendencioso de quien lo ha formulado.
flaco favor te estarías haciendo.
pues con esto pasa lo mismo.
Disculpa la molestia.
En Google acertaron con una cosa. Un no programador no puede ser el jefe de un programador. La de gilipolleces que ha evitado eso.
#17 "AI can be sexist and racist" implica que la inteligencia artificial se construye con algoritmos sexistas? No, si lees la simple entradilla ves que se refiere a los datos con los que se alimenta. Alguien en este hilo tuvo a bien meter una "noticia" de xataka sobre lo racista que es el algoritmo de Google. El algoritmo de Google se nutre de los datos que los usuarios le dan. Una IA será tan X-ista como los datos que se le proporcionen. El algoritmo tiene poco que ver
Lo tienes en la wikipedia y miles de publicaciones científicas... pero supongo que "todos" sois tú, y otro meneante más, que es un ignorante...
La decisión la consideramos inaceptable, pero sexista no es, porque una máquina no sabe hacer eso del sexismo.
De primeras apuntaré a un hecho, el algoritmo de aprendizaje es una cosa, y la fuente de la que pueda aprender es otra.
Así que tú y la ministra, en un segundo, ya no hablais de lo mismo, y si, ambas cosas pueden tener sesgos, o no tenerlos.
Y no te lo tomes como una crítica, es que he estudiado lo suficiente sobre el tema como para aprender lo más básico y querer olvidarme de ello.
No hablais de lo mismo.
PD, en ambas cosas puede existir un sesgo, y puede no haberlo.
Y todo esto mirando 2 paginas de tus comentarios.
Me doblo ante ti y te doy la razón en todo, Marhuenda a tu lado es un paleto.
Ala adiós muy buenas que vas para el ignore de cabeza
para dejar claro el tema del todo, y después de esto voy a intentar no mojarme mas.
El recurso de datos puede estar contaminado con sesgos ideológicos que influyan en el resultado final de la IA, y eso es bastante incontrolable, la IA será tan racista, machista o vegana como la red social/foro sobre la que se lance su aprendizaje.
El algoritmo es casi imposible que este contaminado si no es a propósito, alguien tendría que dar más peso a un parámetro de tipo "blanco", "Hombre", "Animalista" para que eso ocurriera, y dudo que los programadores aunque sean hombres lo hagan a propósito.
Si, la IA podría llegar a pensar que el valor de la opinión de un hombre blanco es superior que la de una mujer negra, pero eso de nuevo... Lo aprendería del recurso de datos.
Para que te hagas una idea de la subnormalez que es culpar a los programadores de sexo masculino.
Y ya lo dejo, porque me estoy metiendo hasta la rodilla en aguas donde mis conocimientos no se sienten del todo cómodos.
nombre masculino
MATEMÁTICAS
Conjunto ordenado de operaciones sistemáticas que permite hacer un cálculo y hallar la solución de un tipo de problemas.
"debes conocer el algoritmo que se emplea para hallar las raíces cuadradas".
No veo cómo diablos una operación matemática puede ser racista.
No lo está.
Así que lo que diga esta señora nos afecta a todos.
Lo que queda claro es que esta señora no tiene en absoluto idea de lo que habla. Nada que no supiésemos porque ya se sabía de qué pie cojea.
No, ella habla directamente de los programadores de sexo masculino y del algoritmo que han programado, no de los sesgos provenientes de los datos, y lo dice diciendo que por ESO, se necesitan más programadoras.
Lógicamente lo dice desde la ignorancia más absoluta, y si ella o el asesor de turno se hubieran informado algo, probablemente lo hubiera dicho de otra forma (dejando a los programadores masculinos mal por el camino de alguna ingeniosa forma)
Y el contexto es el que es, esta soltando un discurso de mujeres para mujeres en las TICs (lo de la IA es solo una pequeña parte) y echar una pedrada a los programadores másculinos se ve que debe vender (no tengo claro que venda tanto).
Personalmente, trabajo en una oficina llena de programadoras, mi realidad sobre "solo los tíos desarrollan software" es diferente a la de esta señora, aunque también es cierto, que hace 20 años, había muy pocas mujeres en mi carrera"
Y yo no te he insultado, a no ser que tu nick, "hinjeniero", sea un auto-insulto que te haces, que podría entenderlo.
Si, pongamos el caso, una IA tiene en cuenta el sexo para mostrar inicialmente unos u otros productos en una tienda, si esa variable es verdaderamente significativa, no es que la IA sea sexista, es que está bien hecha. Quiero decir: un programador o programadora que ignore la variable del sexo en un conjunto de datos donde el sexo es relevante, estaría simplemente haciendo mal su trabajo, porque su objetivo es que la IA muestre los productos que probablemente interesen más al usuario, sin importar los motivos por los que esa variable está siendo significativa.