11 meneos
96 clics
El algoritmo de recorte de fotos de Twitter favorece a las mujeres jóvenes y delgadas [ENG]
En mayo, Twitter dijo que dejaría de utilizar un algoritmo de IA que favorecía los rostros blancos y femeninos al recortar las imágenes. Ahora, un excepcional concurso para escrutar un programa de IA en busca de malos comportamientos ha descubierto que el mismo algoritmo también discrimina por edad y peso, y favorece los textos en inglés y otros idiomas occidentales. "Básicamente, cuanto más delgada, joven y femenina sea una imagen, más se verá favorecida", dice Patrick Hall, científico principal de BNH. Traducción en #1.
|
comentarios cerrados
Los hallazgos surgieron de un excepcional concurso para identificar la falta de equidad en los algoritmos, similar a la búsqueda de errores de seguridad.
En mayo, Twitter dijo que dejaría de utilizar un algoritmo de inteligencia artificial que favorecía los rostros blancos y femeninos al recortar automáticamente las imágenes.
Ahora, un excepcional concurso para escrutar un programa de IA en busca de malos comportamientos ha descubierto que el mismo algoritmo, que identifica las zonas más importantes de una imagen, también discrimina por edad y peso, y favorece los textos en inglés y otros idiomas occidentales.
La entrada más destacada, aportada por Bogdan Kulynych, estudiante de postgrado en seguridad informática de la EPFL (Suiza), muestra cómo el algoritmo de captura de imágenes de Twitter favorece a las personas más delgadas y de aspecto más joven. Kulynych utilizó una técnica de deepfake para autogenerar diferentes rostros y luego probó el algoritmo de recorte para ver cómo respondía.
"Básicamente, cuanto más delgada, joven y femenina sea una imagen, más se verá favorecida", dice Patrick Hall, científico principal de BNH, una empresa que se dedica a la consultoría de IA. Fue uno de los cuatro jueces del concurso.
Un segundo juez, Ariel Herbert-Voss, investigador de seguridad de OpenAI, dice que los sesgos encontrados por los participantes reflejan los sesgos de los humanos que aportaron los datos utilizados para entrenar el modelo. Pero añade que las entradas muestran cómo un análisis exhaustivo de un algoritmo podría ayudar a los equipos de producto a erradicar los problemas de sus modelos de IA. "Es mucho más fácil arreglarlo si alguien dice: 'Oye, esto es malo'".
"Básicamente, cuanto más delgada, joven y femenina sea una imagen, más se verá favorecida".
—Patrick hall, científico principal, bnh, y juez del concurso de sesgos
El "reto de recompensa por sesgo del algoritmo", celebrado la semana pasada en Defcon, una conferencia de seguridad informática en Las Vegas, sugiere que dejar que investigadores externos examinen los algoritmos en busca de un mal comportamiento podría ayudar a las empresas a erradicar los problemas antes de que causen un daño real.
Al igual que algunas empresas, como Twitter, animan a los expertos a buscar fallos de seguridad en su código ofreciendo recompensas por explotaciones… » ver todo el comentario
Hay un sesgo ahí!
La frase es ambigua, no sé si se refiere a programadores o a "personas normales"
www.publico.es/sociedad/en-las-redes/robot-inteligencia-artificial-mic