La empresa CCC Barcelona Digital Services —subcontratada por Meta para moderar los contenidos de Facebook e Instagram— tiene 2.030 trabajadores en Barcelona y al menos el 20%, unos 400, está de baja por traumas psicológicos derivados de los contenidos que tienen que revisar diariamente. El dato lo revela este viernes La Vanguardia, que ha entrevistado a varios trabajadores. La función principal de estos empleados es la de revisar el contenido más brutal que se publica en la red: vídeos de asesinatos, de desmembraciones, de violaciones.
|
etiquetas: meta , facebook , instagram , baja laboral , traumas psicológicos
#1 la parte dura (pedofilia) la conservan, es de lo poco que se salvó de la quema
Tienen una IA, y todo ha de ser revisado personalmente porque reporta muchísimos falsos positivos. Creo también que estamos en una época de pensar que la IA es una especie de cosa mágica que puede con todo. Los moderadores han de estar muy atentos a ciertas sutilezas humanas y del lenguaje que de momento escapan a una IA.
Pongo un ejemplo: tienen orden de no reportar fotos artísticas en las que salgan pezones, pero sí fotos de tetas sin más. Existe cierta subjetividad, ver el perfil de esa persona, analizar la composición... Otro ejemplo sería un vídeo que sube una madre de su hija bailando, y otro una niña bailando para propósitos pedófilos. O una chica atractiva posando en bikini: la IA tiene muchas dificultades en diferenciar soft porn de chicas simplemente ligeras de ropa.
Por lo que me decía este amigo, le da mucho más trabajo revisar los reportes generados por IA que realizarlos él personalmente.
Añado: Tiene un gran porcentaje de éxitos y detecciones, y él siempre refiere que tiene una especie de sexto sentido desarrollado tras años, algo intangible que le hace acertar. Y ciertas percepciones subconscientes que tenemos supongo que son muy, muy difíciles de programar en una IA.
cc #8 #9
Yo trabajo precisamente en el desarrollo de algoritmos de visión por ordenador y sólo con los avances que ha habido este año ya daría para varios tomos enciclopédicos.
Los seres humanos no somos magos, nos fijamos en las características que hay en la imagen para realizar la discriminación y estas características están en la forma en que están distribuidos los píxeles de la imagen, osea números distribuidos de una forma determinada. Por lo tanto, puedes estar seguro que hay algún patrón matemático que permite diferenciar las imágenes. Cualquier modelo matemático lo suficientemente grande y con la suficiente cantidad de ejemplos, será capaz de encontrar dichos patrones.
respondonitis aguda.
Los daños psicológicos, esos olvidados en la evaluación de riesgos. La empresa es 100% responsable si es debido a su actividad laboral y, si es por eso, se enfrenta a aumentos de la cuota a la seguridad social de hasta el 50% como penalización.
También es la gente la que tendría que hacer el filtro, si una persona a la que admiras está enviando mensajes en contra de la ciencia, en contra de las personas LGTBi... a lo mejor va empezando a ser hora de darla la espalda.
Un vídeo amenazante no es lo mismo que un vídeo donde se ve como cortan el brazo un tío o la cabeza a un cachorro.
Pero es que son 2000 millones de usuarios diarios, macho. Hay que entender la escala de facebook para saber que un 0.0001% de cualquier métrica (vídeos, mensajes de whatapp, etc) sigue siendo muchísimo.
Es posible recuperar cuentas de Facebook siempre que puedas demostrar que te han hackeado, una de las formas por supuesto es con correo electrónico. Si te han quitado el correo pues eso es lo primero que tienes que recuperar.
Si no tienes nada de nada, tu única opción es un empleado que te conozca personalmente y que siga el procedimiento interno que hay para ayudar a familiares y amigos. Pero es realmente para eso, al hacerlo se está asumiendo una responsabilidad.
Sólo son tartas. Sólo son tartas. Sólo son tartas. Sólo son tartas. Sólo son tartas. Sólo son tartas. Sólo son tartas. Sólo son tartas.
#24 hay muchos avances, pero los ves en NIPS (NeurIPS para los pieles finas). Lo que haya en la empresa de tu amigo en producción tendrá 5 años fáciles. También en los últimos años se avanza sobre todo en generación. Lo que dices de la intención del vídeo es además subjetivo y difícil incluso para las personas. Los algoritmos usarán más datos del perfil del usuario, aparte del contenido que sube en sí mismo, eso debería darles ventaja en un plazo de tiempo breve, cuando los avances se propaguen a producción y a los científicos de datos se les ocurra que las primeras imágenes de cuentas nuevas son las peligrosas y no la 2853 que sube una madre dando el pecho a su bebé. Eso no es limitación de la IA, es problema del capullismo de gente supuestamente brillante, pero el mundo es así.
Probablemente no hayas oído hablar de él, porque no es algo tan mainstream como chatGPT, pero yolov8, por ejemplo, es uno de los modelos más importantes que ha salido este año para la detección de objetos y rápidamente se ha convertido en un estándar en la industria. ¿Sabes como funciona? Exactamente, con aprendizaje supervisado.
Pero shhh, no se lo digáis a nadie, que ya saben ellos que si alegan trauma o estrés nadie les puede tocar...