edición general
267 meneos
1639 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear
La detención errónea de una embarazada reaviva el rechazo a los sistemas de reconocimiento facial

La detención errónea de una embarazada reaviva el rechazo a los sistemas de reconocimiento facial

La mujer, que ha demandado a la policía de Detroit, fue acusada de robar un coche cuando estaba en el octavo mes de gestación. La única prueba era el controvertido análisis automático de las imágenes

| etiquetas: reconocimiento facial , detriot , ia
  1. If (skinColor != "white") guilty = true;
  2. Detroit?

    Quién ha programado ese algoritmo, la OCP?

    Necesitamos a Robocop, YA.
  3. La detención facial puede servir para facilitar o automatizar determinadas tareas... pero tiene que ser verificada por una persona para que tenga un mínimo de validez, y mas en temas legales.

    En este caso la policía se ha columpiado y ha dado por buenos unos resultados, sin verificar nada.
  4. Yo no se como no van con cuidado de hacer estas cosas. Es obvio que con tantos millones de personas haya coincidencias en las cosas que se analizan y por ello haya falsos positivos. Me gustaría poder ver las fotos de la ladrona real y esta juntas para determinar también si ademas de la mas que estilísticamente probable coincidencia se ha juntado con un algoritmo de mierda.

    EDIT: Se me ha adelantado #3 por 3 segundos xD . Estas cosas deben validarse antes de realizar acciones.
  5. Los humanos también nos equivoicamos al reconocer caras, y eso sin meter los casos en los que el reconocedor tiene neurosis.

    Pues los algoritmos también se equivocan. Por esto que solamente puede ser un indicio que hay que comprobar, nunca una prueba.
  6. vie esta noticia en el canal de YT de un abogado al que sigo y necesita un par de aclaraciones. El algoritmo habrá fallado, pero no se porqué le echan en cara "que estuviera embarazada"... ese fallo es 100% de la policía, el algoritmo era imposible que lo supiera porque comparó un video del 2023 (la ladrona) con una foto de esta mujer... del 2015! Y en esa foto del 2015 no estaba embarazada

    y el pago de una fianza de 100.000 dólares

    la fianza fue de 100k PR, osea personal recognizance, no tuvo que pagar
  7. #1 guilty = ( White ? False : True )
  8. #7 guilty = ! White
  9. el problema no es el reconocimiento facial, sino tragarse el resultado demostrando no tener 2 dedos de frente. como esa gente que esta muerta para la administracion y no hay forma de sacarles del error.
  10. #8 guilty = skinColor != "white";
  11. ¿ Quién fue el idiota que usó un sistema de reconocimiento facial automático para detener a alguien ?
  12. Como estan en china con la falta de libertades
  13. #1 A parte de las bromas sí es verdad que las IA para esto tienen problemas con la gente de tez muy oscura.

    Hasta ahora era medio de cachondeo pero sí fallan más con ellos, hay muchos reportes que el Desbloqueo facial da problemas con esas personas.
  14. #12 Si. Da mucho miedo China con los algoritmos.
    Menos mal que en Occidente se respetan los derechos humanos y estas cosas son impensables.
  15. #2 Pero el 2, que era más divertido.
  16. #1 En USA hasta los 70 ibas preso si entrabas en un restaurante de blancos. Nos creemos que son super avanzados por tener corporaciones pero realmente siguen en la edad de piedra.
  17. #7 guilty = !skinColor.equals("White");
  18. #8 nadie te lo ha dicho pero evidentemente eres el único que podría ser un buen programador de los que han escrito comentarios.

    Por ponerte una pega, “!white;” sin espacio y camelcase ya que guilty es camelcase y se entiende que debe continuar.

    Y por supuesto ;
  19. #13 Siempre se saca primero productos centrados en un estándar blanco y luego se va adaptando la tecnología
  20. #17 guilty = ! isWhite

    #8 el "is" es importante ;)
  21. #18 Gracias. camelcase es una norma para humanos, al compilador o interprete se la suda. Hoy es esta, mañana es otra.
  22. #17 uff... Sin tipar ese skin color... No se yo...
  23. #2 Mejor un ED-209 que no hace cosas raras como intentar detener a gente de bien.
  24. #13 En parte es porque los dataset de entrenamiento seguramente sean mayoritariamente con gente blanca (aparte de que para las cámaras puede ser más difícil distinguir rasgos faciales en gente de color).
  25. Esa noticia está detras de un paywall, está bien ese tipo de noticias en meneame? Por lo pronto le puse "muro de pago" como problema.
  26. #22 Es Java. Está tipado.
  27. #19 O puede que sea cuestión técnica, en foto y vídeo los colores oscuros siempre tienen menos detalle en las texturas que los colores claros.

    O ambas cosas.
  28. #18 podrias explicar por què su respuesta es mejor que la de #7 ? Sirve para cualquier lenguaje o algo?
  29. #3 O lo mismo sí han mirado y tienen los mismos, más o menos sesgos que el sistema.
  30. #28
    #18 hace referencia a #8
    #7 y #8 son la misma persona.

    Como dijo Groucho, si no te gusta mi respuesta tengo otra.
  31. #6 ahora me has despertado la curiosidad, dime el canal que quiero echarle un vistazo!
  32. Me parece un tema interesante, pero me sale un muro de pago. Lo siento.
  33. #18 el punto y coma es opcional en JS (ese código podría ser de bastantes lenguajes)
  34. #4 pues igual que con otras herramientas para toma de decisiones basadas en algoritmos que se aplican en el ámbito social desde hace años (sí, incluido en España) y que suponen consecuencias en la vida de las personas: la gente es vaga y lo que diga el algoritmo va pa'lante.
  35. No me deja leer la noticia si no estoy suscrito, algún truco para poder leerla?
  36. Eso pasa por aplicar algoritmos sin tener en cuenta a Bayes.
  37. #36 Varios:
    1-Modo lectura del navegador
    2-Ublock origin, y desactivar JavaScript
    3-Pagando :troll:
  38. #23: Yo me quedo con el que se quita el cráneo, o el siguiente, que se regenera con un vuelo en el viaducto disparo en su propia cabeza, tras disparar a todos los que hay alrededor, para regenerarles también. :roll:
  39. #28 Y no le contestes que sigue siendo la misma IA.
  40. #10 guilty = ! skinColor rgb"255,255,255" :troll:
  41. #13 Lo que me intriga, es que los asiáticos no tienen ese problema.
    Creo que solo es cuestión de entrenamiento. En china ya pagan "por la cara"
  42. #3 Eso con los jueces del supremo de USA no ocurre (solo una de cada 10 y lo digo por la progre, no por el morenito). Ni siquiera con los que están embarazados. Son todos de "color inocente"
  43. #11 Tom Cruise.
  44. #33 hablamos de lenguajes serios...
  45. Muro de pago en portada
  46. #42 seguramente hayan desarrollado sus propios sistemas y los han entrenado con caras de chinos.
  47. #19 Si, es una parte crucial del método científico.
  48. #26 Me refiero a evitar comparar dos strings creando un tipo para el SkinColor e igualando a un enumerado.
  49. #13 El problema del color oscuro de las personas de raza negra ya hace tiempo que es un problema para la tecnología. Por mi trabajo, a veces tenía que fotocopiar DNIs de personas negras y no había manera de que saliera en la fotocopia poco más que una silueta negra con ojos. Ahora escaneamos los carnets y se ha solucionado el problema.
comentarios cerrados

menéame