Tecnología, Internet y juegos
11 meneos
96 clics

El algoritmo de recorte de fotos de Twitter favorece a las mujeres jóvenes y delgadas [ENG]

En mayo, Twitter dijo que dejaría de utilizar un algoritmo de IA que favorecía los rostros blancos y femeninos al recortar las imágenes. Ahora, un excepcional concurso para escrutar un programa de IA en busca de malos comportamientos ha descubierto que el mismo algoritmo también discrimina por edad y peso, y favorece los textos en inglés y otros idiomas occidentales. "Básicamente, cuanto más delgada, joven y femenina sea una imagen, más se verá favorecida", dice Patrick Hall, científico principal de BNH. Traducción en #1.

| etiquetas: twitter , algoritmo , ia , discriminación , defcon , recorte fotos
  1. El algoritmo de recorte de fotos de Twitter favorece a las mujeres jóvenes y delgadas

    Los hallazgos surgieron de un excepcional concurso para identificar la falta de equidad en los algoritmos, similar a la búsqueda de errores de seguridad.

    En mayo, Twitter dijo que dejaría de utilizar un algoritmo de inteligencia artificial que favorecía los rostros blancos y femeninos al recortar automáticamente las imágenes.

    Ahora, un excepcional concurso para escrutar un programa de IA en busca de malos comportamientos ha descubierto que el mismo algoritmo, que identifica las zonas más importantes de una imagen, también discrimina por edad y peso, y favorece los textos en inglés y otros idiomas occidentales.

    La entrada más destacada, aportada por Bogdan Kulynych, estudiante de postgrado en seguridad informática de la EPFL (Suiza), muestra cómo el algoritmo de captura de imágenes de Twitter favorece a las personas más delgadas y de aspecto más joven. Kulynych utilizó una técnica de deepfake para autogenerar diferentes rostros y luego probó el algoritmo de recorte para ver cómo respondía.

    "Básicamente, cuanto más delgada, joven y femenina sea una imagen, más se verá favorecida", dice Patrick Hall, científico principal de BNH, una empresa que se dedica a la consultoría de IA. Fue uno de los cuatro jueces del concurso.

    Un segundo juez, Ariel Herbert-Voss, investigador de seguridad de OpenAI, dice que los sesgos encontrados por los participantes reflejan los sesgos de los humanos que aportaron los datos utilizados para entrenar el modelo. Pero añade que las entradas muestran cómo un análisis exhaustivo de un algoritmo podría ayudar a los equipos de producto a erradicar los problemas de sus modelos de IA. "Es mucho más fácil arreglarlo si alguien dice: 'Oye, esto es malo'".

    "Básicamente, cuanto más delgada, joven y femenina sea una imagen, más se verá favorecida".
    —Patrick hall, científico principal, bnh, y juez del concurso de sesgos

    El "reto de recompensa por sesgo del algoritmo", celebrado la semana pasada en Defcon, una conferencia de seguridad informática en Las Vegas, sugiere que dejar que investigadores externos examinen los algoritmos en busca de un mal comportamiento podría ayudar a las empresas a erradicar los problemas antes de que causen un daño real.

    Al igual que algunas empresas, como Twitter, animan a los expertos a buscar fallos de seguridad en su código ofreciendo recompensas por explotaciones…   » ver todo el comentario
  2. Y el mío
  3. #3 "Ariel Herbert-Voss, investigador de seguridad de OpenAI, dice que los sesgos encontrados por los participantes reflejan los sesgos de los humanos que aportaron los datos utilizados para entrenar el modelo".
  4. #3 #5 Home, si el algoritmo busca maximizar el impacto de la foto, y la gente hace click en "la buenorra esa"... Pues lo raro es que favoreciese los cuarentones gorditos de buen corazón
  5. Apuesto a que mi foto queda peor que la de los modelos profesionales.

    Hay un sesgo ahí!
  6. A ver cuanto tardan algunos en decir que es discriminación positiva hacia las mujeres y las feministas cuando en realidad es utilización de mujeres como mercancía.
  7. ¿Solo el algoritmo de la IA favorece las imágenes a las mujeres jóvenes, delgadas y femeninas? Creo que la IA hace perfectamente su trabajo, otra cosa es que nos escandalicemos, pero es un reflejo de la sociedad.
  8. #6 Eso es lo que yo pienso, que a fin de cuentas van buscando pasta.
  9. #8 A ver cuánto tardan en decir que es machismo cuando en realidad no sabemos a qué se debe el sesgo.
  10. #3 No se te olvide la opción primera, que es que no existe tal sesgo, y que la inmensa mayor parte de las fotografías se corresponden a mujeres jóvenes y delgadas.
  11. #6 que hijos de puta
  12. Tampoco se tendrá que esforzar mucho la IA :troll:
  13. #5 Quizás los hombres se fijan solo en las mujeres mientras que las mujeres se fijan en los hombres y mujeres por igual. A los hombres nos suele importar menos que a las mujeres la ropa o el estilo del o la modelo.
  14. #16 Si lees el artículo verás que el sesgo no viene de la interacción de los usuarios, sino de los datos con los que los programadores alimentaron la IA. La mayoría, si no todos, los sesgos de las IA proceden de los datos con los que se las entrena.
  15. #17 "Un segundo juez, Ariel Herbert-Voss , investigador de seguridad de OpenAI , dice que los sesgos encontrados por los participantes reflejan los sesgos de los humanos que contribuyeron con los datos utilizados para entrenar el modelo."
    La frase es ambigua, no sé si se refiere a programadores o a "personas normales" :-D
  16. #3 una IA heteropatriarcal.
comentarios cerrados

menéame