edición general
51 meneos
255 clics
Más de 400 moderadores de Facebook en Barcelona, de baja por las atrocidades que revisan

Más de 400 moderadores de Facebook en Barcelona, de baja por las atrocidades que revisan

La empresa CCC Barcelona Digital Services —subcontratada por Meta para moderar los contenidos de Facebook e Instagram— tiene 2.030 trabajadores en Barcelona y al menos el 20%, unos 400, está de baja por traumas psicológicos derivados de los contenidos que tienen que revisar diariamente. El dato lo revela este viernes La Vanguardia, que ha entrevistado a varios trabajadores. La función principal de estos empleados es la de revisar el contenido más brutal que se publica en la red: vídeos de asesinatos, de desmembraciones, de violaciones.

| etiquetas: meta , facebook , instagram , baja laboral , traumas psicológicos
  1. Por lo menos tienen trabajo, en Twitter, ahora X, no habría para ellos.
  2. Lo comenté hace bastante por aquí, conozco un par de personas que trabajaban de esto y lo dejaron, aunque parezca mentira es un trabajo muy jodido donde ves de todo, y por de todo me refiero a de todo
    #1 la parte dura (pedofilia) la conservan, es de lo poco que se salvó de la quema
  3. Pues mira que reporto comentarios y vídeos negacionistas, amenazantes o de odio y nunca censuran nada
  4. En menéame es un trabajo de palomitas, chistes y mafias. Adiós a todos, fue un placer escribir bebido y conduciendo :-x
  5. Creo que el problema más que ver gore, que pueden escoger gente a la que le guste el tema y no tengan tantos reparos psicológicos, va a estar en lo que dicen de "tasa de acierto" y estar siempre con la espada de Damocles del despido por no acertar lo suficiente. Sueldo supongo que pagarán bien, porque si encima es una mierda de sueldo, otra razón para acabar hasta los huevos
  6. Es te trabajo debería ser altamente automatizable por una IA. Nadie debería verse obligado a realizar este trabajo existiendo una tecnología que lo hace posible.
  7. #2 yo lo consideraría hasta tortura, dependiendo de lo que llegues a ver, esas imágenes te pueden acompañar toda la vida
  8. #6 no creo que las IAs lleguen todavía tan lejos, entiendo que en muchos casos la decisión de censura depende de factores empáticos y emocionales. Justo lo que no tienen las AIs. En otros si se podrá.
  9. #6 ¿podría una IA diferenciar entre un vídeo actuado frente a uno real?
  10. #8, pueden ser un primer filtro que ahorren el 90% del trabajo. Yo sí lo creo, estoy convencido de ello.
  11. #9, si una persona puede sí, si una persona no puede, no. No hay ninguna magia aquí.
  12. #6 Tengo un amigo que precisamente trabaja en esta empresa. Una cosa que tienen en cuenta es el perfil de la persona, qué cosas comenta, su actividad, dog whistles... Tienen que estar muy al tanto del argot de diversos grupos nazis, pedófilos y demás.

    Tienen una IA, y todo ha de ser revisado personalmente porque reporta muchísimos falsos positivos. Creo también que estamos en una época de pensar que la IA es una especie de cosa mágica que puede con todo. Los moderadores han de estar muy atentos a ciertas sutilezas humanas y del lenguaje que de momento escapan a una IA.

    Pongo un ejemplo: tienen orden de no reportar fotos artísticas en las que salgan pezones, pero sí fotos de tetas sin más. Existe cierta subjetividad, ver el perfil de esa persona, analizar la composición... Otro ejemplo sería un vídeo que sube una madre de su hija bailando, y otro una niña bailando para propósitos pedófilos. O una chica atractiva posando en bikini: la IA tiene muchas dificultades en diferenciar soft porn de chicas simplemente ligeras de ropa.

    Por lo que me decía este amigo, le da mucho más trabajo revisar los reportes generados por IA que realizarlos él personalmente.

    Añado: Tiene un gran porcentaje de éxitos y detecciones, y él siempre refiere que tiene una especie de sexto sentido desarrollado tras años, algo intangible que le hace acertar. Y ciertas percepciones subconscientes que tenemos supongo que son muy, muy difíciles de programar en una IA.

    cc #8 #9
  13. #3 Sólo censuran tetas.
  14. #6 Funcionan como el culo. De ahí que censuren tetas incluso si lo que sale es una escultura famosa.
  15. #3 Imagínate la de mierda y cosas infrahumanas que deben tener que revisar. Supongo que previo a revisión humano, algún tipo de IA debe filtrar primero.
  16. ¿Donde les puedo enviar el curriculum? Estoy curado de espanto entre 4chan y reddit
  17. #12, #14, de hace cuanto tiempo hablas? Un año en visión por ordenador es un universo de distancia.
  18. #12, las IAs actuales no se programan, se entrenan y no hay nada más fácil de entrenar que el trabajo que está haciendo tu amigo que consiste poner etiquetas discretas a publicaciones. Me gustaría saber más detalles de todo lo que comentas, pero desde luego ninguno de estos problemas será técnicamente insalvable con esta tecnología a medio plazo.

    Yo trabajo precisamente en el desarrollo de algoritmos de visión por ordenador y sólo con los avances que ha habido este año ya daría para varios tomos enciclopédicos.
  19. #17 Sigue trabajando ahí en la actualidad. Y sobre lo que dices en #10, lo dicho: dice que la IA le genera más problemas que soluciones. Los falsos positivos dan lugar a tickets de reclamaciones que llevan considerablemente más tiempo analizar y resolver.
  20. #18 Se entrenan, correcto. Si tú piensas que nada hay más fácil de entrenar que este trabajo, pues qué te voy a decir. No soy experto en IA. Sí que creo que aún le queda mucho para percibir las mayores sutilezas de las relaciones sociales, detectar una intención lúbrica o no en una niña haciendo un baile de tiktok, y demás ejemplos que te he puesto. Ahora hablas de medio plazo, pues no sé. Tal vez llegue ese momento. Hoy por hoy aún no está madura.
  21. #19, habría que ver estos falsos positivos y qué tecnología están utilizando. Porque como la empresa esté utilizando cualquier tecnología de hace más de dos años para realizar el filtraje ya te digo yo que están en la edad de piedra.
  22. #20, yo sí que trabajo en esto y te puedo asegurar que una de las cosas más costosas es construir un buen dataset de entrenamiento, suficientemente rico y representativo. En el caso de tu amigo, los datos ya están estructurados. Lo que está haciendo tu amigo sin darse cuenta es ayudar a entrenar los modelos que en el futuro próximo van a sustituir una parte muy importante del trabajo que realiza.

    Los seres humanos no somos magos, nos fijamos en las características que hay en la imagen para realizar la discriminación y estas características están en la forma en que están distribuidos los píxeles de la imagen, osea números distribuidos de una forma determinada. Por lo tanto, puedes estar seguro que hay algún patrón matemático que permite diferenciar las imágenes. Cualquier modelo matemático lo suficientemente grande y con la suficiente cantidad de ejemplos, será capaz de encontrar dichos patrones.
  23. #15 sí, no debería ser tan dificil entrenar una IA y que, en caso de queja, lo revisara un humano.
  24. #22 Siendo experto no te lo voy a discutir, respeto los conocimientos de cada uno. Sólo digo lo que me dice en la actualidad.
  25. #24, tampoco digo que se pueda sustituir 100% el trabajo manual, pero sí puede ser un primer filtro importante. De hecho seguro que en Facebook lo utilizan.
  26. el admin de aqui igual acaba odiando a todo el mundo, o respondiendo mal y sacando la punta a casi todo el mundo en su vida.
    respondonitis aguda.
  27. Aquí es cuando un IA es perfecta para detectar estos vídeos, unir todos los datos que tengan: fecha, ip, etc, vídeos, fotos, y reenviar automáticamente a la policía de la zona.
  28. Hablando de facebook ultimamente hay muchos hackeos. Yo tenía una cuenta y ya es irrecuperable y no puedes contactar con nadie. Ni reportandola la borran. Un desastre.
  29. #6 Pues los que recogen a los atropellados por trenes y similares no los veo fácilmente sustituibles. De hecho conozco a uno y me dice que a todo se acostumbra uno.
  30. #29, estos no, desde luego.
  31. #3 El sistema de filtración de Facebook es, cuanto menos extraño. ¿Te burlaste de Hitler hace años? Muy mal. ¿Mencionas la palabra pene? ¡Es que nadie piensa en los niños! Bloqueo inmediato. ¿Cuadro renacentista donde se ve un pezón? No mientras vigile. El arte o la medicina no tienen cabida, pero ahí lo tienen como una fuente de propaganda y timos, incluso en los propios anuncios.
  32. #3 normal, si están de baja :troll:
  33. ¿Y que dice el plan o estudio de seguridad y salud de esto? Creo que necesitarían una inspección de trabajo revisando la seguridad y salud.

    Los daños psicológicos, esos olvidados en la evaluación de riesgos. La empresa es 100% responsable si es debido a su actividad laboral y, si es por eso, se enfrenta a aumentos de la cuota a la seguridad social de hasta el 50% como penalización.
  34. #31: Luego dices algo parecido a "hay que pegar un tiro a los inmigrantes" o alguna barbaridad similar, y pasa todos los filtros. xD

    También es la gente la que tendría que hacer el filtro, si una persona a la que admiras está enviando mensajes en contra de la ciencia, en contra de las personas LGTBi... a lo mejor va empezando a ser hora de darla la espalda.
  35. #6: Con AI se puede hacer un prefiltrado, por ejemplo, eliminar reportes falsos para perseguir a usuarios (esto en Twitter ha pasado), pero el problema es que en última instancia tiene que ser un humano el que lo compruebe.
  36. Después de leer esta noticia van a haber unos 400 más
  37. #28 Correcto... a mí todos lo días. Unos 10 intentos de entrar en mi cuenta de la tienda... es increíble.
  38. #3 Lo que tú ves es lo mejor de lo peor.

    Un vídeo amenazante no es lo mismo que un vídeo donde se ve como cortan el brazo un tío o la cabeza a un cachorro.
  39. #9 Da bastante igual, en facebook no puedes poner un vídeo de una simulación de una violación igual que no puedes poner el de una violación. Y además tú tampoco podrías diferenciarlos.
  40. #10 ¿Pero te crees que Facebook no tiene eso ya? El 90% no, el 99% y más.
    Pero es que son 2000 millones de usuarios diarios, macho. Hay que entender la escala de facebook para saber que un 0.0001% de cualquier métrica (vídeos, mensajes de whatapp, etc) sigue siendo muchísimo.
  41. #19 Lo que ve tu amigo es la parte que la IA no ha resuelto satisfactorialmente. Por hablar claro, tu amigo no tiene ni puta idea. Es como si trabajara en un taller mecánico de una marca concreta y tuviera la idea de que los coches de esa marca son una puta mierda porque se pasan el día en el taller.
  42. #23 ¿Caso de queja de quién?
  43. #28 ¿Cómo sabes que es irrecuperable?
  44. #41 Sin duda no es experto en IA. De lo que sí puede tener puta idea es de que trabaja más horas, tiene más tickets y nota que su trabajo se ha hecho más difícil.
  45. #44 Eso no quiere decir nada, puede tener más tickets porque hay más trabajo, o porque han echado a gente en alguna otra parte del mundo, o porque su jefe es un cabrón, o porque han cambiado los criterios por los que se pide revisión humana. De nada de eso se va a enterar tu amigo.
  46. #43 pues me lo hicieron ya con alguna cuenta recién creada pero esta vez ha sido con la personal de toda la vida. Llevaba meses sin tocarla. Resulta que no se cómo lo hacen pero consiguen cambiarte el mail, el telefono, la contraseña y todo. Con el mismo mail he podido ya crearme una cuenta nueva y todo y claro, no puedo hacer más que reportarla desde otras cuentas. Y no hacen caso aunque es evidente que la cuenta se ha puesto a publicar enlaces de estafas. Increíble. También hackean gmail si no tienes doble confirmación pero al mismo día siguiente. De momento en las cuentas que lo he puesto estan bien. Imagino que el instagram también se lo han quedado ya que se entra por facebook
  47. #46 Hombre, si te han quitado el gmail date por jodido.

    Es posible recuperar cuentas de Facebook siempre que puedas demostrar que te han hackeado, una de las formas por supuesto es con correo electrónico. Si te han quitado el correo pues eso es lo primero que tienes que recuperar.

    Si no tienes nada de nada, tu única opción es un empleado que te conozca personalmente y que siga el procedimiento interno que hay para ayudar a familiares y amigos. Pero es realmente para eso, al hacerlo se está asumiendo una responsabilidad.
  48. #47 efectivamente con el gmail te han jodido. Con doble confirmación me han reportado intentos pero no lo consiguen. En el caso de facebook lo que es curioso es que te cambian el mail asociado a la cuenta, el mail sigue siento mío (hotmail). Te cambian los datos asociados a la cuenta, hasta el teléfono. Eso tiene que ser por ingeniería social o algo así no me explico. Por lo tanto cuando reportas yo creo que los datos son los suyos claro y no hacen nada. Es muy raro. Te la roban del todo, inaccesible.
  49. #13 como Dios manda.  media
  50. #38 sólo son tartas.



    Sólo son tartas. Sólo son tartas. Sólo son tartas. Sólo son tartas. Sólo son tartas. Sólo son tartas. Sólo son tartas. Sólo son tartas.
  51. #5 probablemente salario mínimo porque precisa cero cualificación.
  52. #22 aprendizaje supervisado es el pasado, según el colega: youtu.be/yAF3bopYMGk

    #24 hay muchos avances, pero los ves en NIPS (NeurIPS para los pieles finas). Lo que haya en la empresa de tu amigo en producción tendrá 5 años fáciles. También en los últimos años se avanza sobre todo en generación. Lo que dices de la intención del vídeo es además subjetivo y difícil incluso para las personas. Los algoritmos usarán más datos del perfil del usuario, aparte del contenido que sube en sí mismo, eso debería darles ventaja en un plazo de tiempo breve, cuando los avances se propaguen a producción y a los científicos de datos se les ocurra que las primeras imágenes de cuentas nuevas son las peligrosas y no la 2853 que sube una madre dando el pecho a su bebé. Eso no es limitación de la IA, es problema del capullismo de gente supuestamente brillante, pero el mundo es así.
  53. #52, eing? Creo que viste el video pero no lo terminaste de entender, "colega". Que las técnicas que más vayan a evolucionar sean otras, no significa que las más antiguas por así decirlo no se vayan a seguir utilizando. Porque el aprendizaje supervisado sirve para resolver problemas mejor que otras técnicas, que están pensadas para otras cosas. A modo de ejemplo y para que lo entiendas, que los martillos sean más antiguos que los ordenadores, no significa que los martillos ya no se utilizen.

    Probablemente no hayas oído hablar de él, porque no es algo tan mainstream como chatGPT, pero yolov8, por ejemplo, es uno de los modelos más importantes que ha salido este año para la detección de objetos y rápidamente se ha convertido en un estándar en la industria. ¿Sabes como funciona? Exactamente, con aprendizaje supervisado.
  54. La mayoría de esos perfiles son de guiris de 20 años trabajando para estas empresas en Barcelona. Les pagan lo justo y han descubierto que la baja en España les cubre lo suficiente para cobrar mientras buscan otro trabajo.

    Pero shhh, no se lo digáis a nadie, que ya saben ellos que si alegan trauma o estrés nadie les puede tocar...
  55. #40, claro que lo creo, ya lo he dicho en #25. Y creo que en pocos años este trabajo lo podrá hacer una IA al 100% con menos errores que un humano.
  56. Estos son los elementos que me censuran los videos que subo ... :ffu:
  57. #51 Pues peor lo pones entonces. Trabajo desagradable, mal pagado y si lo haces mal, que si depende de estar en sintonía con estadísticas de otra gente no tiene que coincidir con lo que tú consideras que es hacerlo mal, a la calle. Lo que menos te puede joder la cabeza de esas 3 variables es ver vídeos gore
  58. #57 Depende de la persona.
comentarios cerrados

menéame