edición general
407 meneos
1916 clics
Los moderadores de contenidos de TikTok han visto decapitaciones, abusos sexuales a menores y otras atrocidades: las secuelas son terribles, y denuncian que a la empresa no le importa nada

Los moderadores de contenidos de TikTok han visto decapitaciones, abusos sexuales a menores y otras atrocidades: las secuelas son terribles, y denuncian que a la empresa no le importa nada

Los moderadores de TikTok que describen una cultura de excesiva carga de trabajo y vigilancia constante, confiesan que sus trabajos les han dejado traumatizados y que no se les informó adecuadamente sobre el material que iban a revisar. TikTok recurre a empresas externas para ayudar a la moderación de sus contenidos, una parte vital de su modelo de negocio. Seis moderadores, tanto en activo como antiguos, afirman que han tenido que visualizar de forma constante vídeos gráficos que incluyen abusos a menores, suicidios y asesinatos

| etiquetas: redes sociales , tiktok , moderadores , vídeos atroces
Comentarios destacados:                      
#27 #12 Me parto con los listos.

Pueden no saberlo y aún así necesitar el dinero de un trabajo digno.

Pueden saberlo y aún así pensar que es algo que no les superará y equivocarse.

Incluso pueden saberlo, saber no están preparados y necesitar el dinero para alimentar a su familia.

¿Pobre? ¿Por qué eres pobre? No seas pobre.
  1. y menudo puterio que hay tambien ahi metido.
  2. Para estos casos lo mejor es contratar a "raritos"
  3. Hay información suficiente en la red para saber dónde se metían. Llevan años publicándose denuncias similares de moderadores de otras redes sociales.
  4. Seguimos con la propaganda prebélica.
  5. De Tik tok, de Facebook y de cualquier red social. Al final hay una persona que es la que ve el video y decide si se debe retirar o no. Y hay verdaderas salvajadas.
  6. #5 Si, creo que muchos hemos visto cosas que somos incapaces de contar a nadie.
  7. #1 hay el que hay
  8. Debo estar protegido por algun halo de santidad o algo, porque mira que he estado en redes sociales y nunca he visto nada de esas salvajadas que cuentan.
    Tambien es verdad que tampoco iba buscandolas.
    Edit : Esto es lo mas violento que he visto en tiktok... y realmente todas mis arterias han empezado a temblar
    www.tiktok.com/@semecaelababaa/video/7104961382931598598
  9. Bienvenidos al mundo real, no hay animal mas salvaje que el hombre. Puede decidir por el mismo sin dejarse influenciar totalmente por los instintos que suelen ser el freno para no hacer salvajismos. Un ser libre al fin y al cabo, justo en la medida de su hijoputez.
    Al final vamos a pedir responsabilidades hasta porque nos quememos con el café de un bar... ah calla, que esto es lo de la vieja y el macdonald.
    P.D: Yo veo responsabilidad en la empresa cuando lo fomenta y consiente, si es algo relativo a la operativa no lo veo delito. Te marchas y punto.
  10. #3 No solo moderadores, la gente que revisa porno comercial para seleccionarlo para su compra también acaban tocados y hay que sustituirlos periódicamente.
  11. ¿No sabían en qué consistía su trabajo?
  12. #1 igual eso no los traumatiza tanto
  13. #9 a ver, tú no las has visto precisamente porque hay moderadores que censuran varios tipos de contenido
  14. #14 otros meneantes estan diciendo que han visto barbaridades. Yo llevo conectando a la red desde la epoca de las BBS y nunca me he encontrado esas cosas "por sorpresa" , a no ser que consideremos alguna peli bajada del emule que no parecia tener mucho que ver con el titulo xD
  15. #15 En youtube es relativamente fácil ver asesinatos y otras movidas muy desagradables. Creo que es en Facebook, Tiktok, Twitter etc donde se controla más lo que se permite subir a los usuarios.
  16. #12 La empresa también lo sabe.
  17. Internet, el espejo del pozo de mierda que es la humanidad.
  18. #11 hombre lo raro es que no se tocarán. :troll:
  19. #15 en Twitter más allá de ver algún rabo salvaje si que te puedes encontrar cosas bastante duras, desde lapidaciones hasta hombres-bomba o los chavales aquellos que murieron en el instituto de Perú creo que era, cayéndose de un quinto piso. Y se ve todo, si.
  20. Pues deben estar sensibles cuando luego tiran un vídeo porque sale una imagen centenaria o milenaria con un pezón.
  21. #6 este a crearte otro perfil junio del 2022, que este lo pierdes ya, y haznos un favor y en el siguiente perfil que te crees escribe en arameo para no entender tus gilipolleces
  22. Que mal hay que estar de los fusibles para ir compartiendo ese contenido :-S
  23. #3 una vez hablé con un moderador de Facebook. Lo que más veían eran fiestas de cumpleaños, digo que era rarísimo ver algo así
  24. #13 no todo el mundo va salido ni de humor 24/7 para ver obligados porno y similares.
  25. #12 Me parto con los listos.

    Pueden no saberlo y aún así necesitar el dinero de un trabajo digno.

    Pueden saberlo y aún así pensar que es algo que no les superará y equivocarse.

    Incluso pueden saberlo, saber no están preparados y necesitar el dinero para alimentar a su familia.

    ¿Pobre? ¿Por qué eres pobre? No seas pobre.
  26. debería ser una IA la que haga el 1er filtro y ellos lo q se le pase a la IA
  27. #15 Pero sabes quién es Goatshe...Si no lo sabes, es que realmente has dicho la verdad.
  28. #29 Goatse , entiendo que es la definicion de "ir buscandolo" xD
  29. Si quieren curtirse un poco que se pasen por 4chan y el estercolero reddit
  30. #30 No precisamente,no.
  31. Internet es el espejo de la humanidad. No sabiamos quien eramos hasta ahora.
  32. #26 Ver cosas irrelevantes como humor cuando no te apetece, o porno cuando no estás salido, no creo que te joda la cabeza como ver asesinatos, torturas a niños, destripamientos de gatitos y cosas semejantes.

    Ver cosas sin interés o irrelevantes por curro es una mierda, pero peor es tener que ver movidas que te pueden afectar emocionalmente
  33. #1 a ver infórmanos a que te refieres con eso de puterio, y dinos cómo se apuntan esos degenerados.
  34. #32 hace muchisimos años que no he visitado esa pagina , pero vamos , que por lo que recuerdo , no es precisamente una "red social", solo el sitio para mandar a incautos a que se encuentren las fotos mas asquerosas posibles
  35. #2 posiblemente los psicópatas sufran poco con estas cosas
  36. #27 Perdón, listillo, pero es como ir a trabajar a una carnicería y luego quejarse de que ve mucha sangre.
  37. #25 es probable que hoy día haya IAs haciendo un filtro previo, con lo que los vídeos que revisen humanos sean lo ya marcados como potenciales infractores.
  38. #36Era un jicho, eran dos fotos que se convirtieron en el centro de multitud de bromas pesadas.
    El gobierno americano quiso acabar el tema y cerró la página (o sea que si era una web) y al momento, salieron defensores por todo el mundo, con camisetas y merchandising o como ostia se escriba.
  39. #5 Lo más realista de Avengers 2 fue que Ultron se conectara una tarde a Internet y decidiera acabar con la humanidad
  40. #31 O por theync, un par de días viendo vídeos a fuego y listo.
  41. En Barcelona hay unas giga-oficinas que trabajan para Facebook filtrando esos contenidos, y por lo visto la gente acaba bastante tocada de la cabeza, después de unos meses trabajando ahí.
  42. Es la humanidad como es, que se busquen otro curro
  43. #2 Un dia mas en la vida de un 4channer oldfag, el equivalente de internet de criarse en las favelas
  44. #33 Ni de coña.
    Son las empresas, los intereses económicos los que ahora más que nunca nos manipulan la mente.
    Coges a chicos de 13 años, que quieren ver tetas,las IAs ven que lo que más se viraliza son vídeos violentos y porno sádico, pues dale más
    Los chavales insensibilizados,en el momento más delicado cuando se desarrolla la sexualidad, viendo violaciones como algo normal.
    Y alguien al otro lado ganando dinero y dinero.
    No somos así, nos están haciendo así
  45. #34 ¿Y por qué siguen en ese tipo de trabajo? Si solo se quedan los que de verdad pueden con ello, serán menos, y pagaran mas y ello atraerá a otros que también lo soportan pero que ahora mismo por lo que pagan y ofrecen no les renta. Lo que es un sin sentido es estar en un trabajo que te traumatiza y querer que eso cambie en vez de irte, porque una cosa es seguro, un moderador de una red social de este tipo va a seguir viendo todas esas cosas haga lo que haga la empresa porque el mundo es así y ellos están ahí precisamente para eso, para detectar, denunciar y filtrar.
  46. Que efecto tendrá en las cabezas de los chavales en un futuro???
  47. #47 ¿Hacen mal en querer que cambien las cosas y se valore su esfuerzo emocional? ¿La lucha no es el camino para defender sus derechos?
  48. #1 mucho menor enseñando abdominales ( - braguitas y sujetador en el caso de las chicas) mientras baila con poses sexuales, que daño esta haciendo esta app.
  49. #16 @Bloodsucker, cuál es tu problema? ¿Sabes para qué se usan los negativos?
  50. Todo el puto día viendo selfiepenes como si trabajaran en una salchichera. Terrible.
  51. #48 pues el mismo que tuvo LiveLeak en los insomnes hace unos años. Escenas dantescas en la cabeza que solo pensarlas te pone los pelos de punta.
  52. Esto lo deberian revisar presos, precisamente ese tipo de desalmados que están en la cárcel.

    Los tienes contentos con material y hacen un favor a la sociedad.
  53. #9 me ha entrado hambre y antojo de comerme un cachopo viendo ese tiktok enlazado
  54. Tiktok es disneyland para los pedófilos
  55. #12 Es como la gente que se mete a psicología, sólo que los psicólogos tienen todo un sistema de "limpieza" que se hacen de vez en cuando; dudo que mucha gente que se mete a esa carrera sepa el lado oscura de ella. Los moderadores de RRSS es una profesión nueva, y obviamente no podían predecir estos problemas.
  56. #34 Los algoritmos ya filtran muchísima mierda antes que los moderadores. Me cuesta creer que vean TANTO.
  57. #1 Hasta ahora no me lo había planteado mucho pero debe ser un problema bastante general de las redes que permiten subir vídeos. La diferencia debe estar en la preparación de los empleados
  58. #2: O usar IA, con eso las imágenes normalmente las tendrías que marcar una vez y luego las derivadas (recortes, logotipos...) se detectarían con bastante facilidad a partir de esa.
  59. #59 Cuantas violaciones de niños al dia te parece adecuado ver?
  60. #45 you have just lost The Game
  61. #2 Conozco uno que dejó esta mierda para trabajar de teloperador. Imagina lo que tenía que tragar para parecerle bueno en trabajo de teleoperador.
  62. #39 parecido, los que revisan los humanos son la zona gris.

    El que la IA marca como porno/gore/etc con más del X % de confianza, se marcará como infracción y solamente se debería revisar bajo petición del usuario.

    El problema es cuando la IA te marca un ¿5%? de posibilidades de algo chungo y justo lo pasa al revisor humano y sí lo es
  63. #62 Ninguna, desde luego. Lo tengo clarísimo, no estoy tratando de justificar ni exculpar nada.

    Mi comentario era una valoración cuantitativa, no cualitativa, sobre el tema.
  64. ¿Para qué hacen secuelas si no les gustó la primera parte? :shit:
  65. #12 Nadie sabe lo que se ve en las plataformas de moderación excepto aquellos que ya han sido moderadores, nadie; por definición solo los moderadores que descartan el contenido saben el contenido que hay, pues de puertas hacia fuera no existe.

    Tú te lo puedes imaginar, sí, con mayor o menor acierto, pero no saberlo. Pensar que la gente se mete a sabiendas de que van a ver decapitaciones y muestras de necrofilia es de ignorancia voluntaria.

    Por otra parte no se quejan de lo que ven, sino de la actitud de las empresas:
    * el aviso sobre el contenido era una frase enterrada en un contrato de vete tú a saber cuántas páginas.
    * les obligaban a ver los videos en su totalidad, fuese lo que fuese, aunque ya supieran que hay que descartarlo.
    * les empezaron a negar descansos pactados durante la contratación.

    Te recomiendo que te leas el artículo, es interesante.
  66. #7 yo toco madera, siempre he tenido reflejos pra no ver esas cosas… pero la gente está enferma.
  67. #6 se te ha olvidado traducir, señor bot.
  68. #38 No. Si te dicen que eres moderador para evitar, por ejemplo, el porno y permitir el softporn, para permitir ropa ajustada y no pezones, encontrarte con muertos y sangre, entre otras cosas, puede que no estè en tu guión.

    Es como ir a trabajar en una carnicería y descubrir que despiezas y vendes humanos.
  69. #28 Seguro que lo hay, y al filtro humano normalmente solo le pasan las cosas "chungas".
  70. #42 Esta me la apunto :troll:
  71. #49 Qué pidan más está bien. Aunque ya te digo que es más efectivo irse. Que pidan que cambie lo veo un poco absurdo. Ver esas mierdas es parte de su trabajo les guste o no.
  72. #47 S09E206 Cómo culpar al trabajador en vez de a la empresa culpable . mkv
  73. #61 Esos moderadores son los que entrenan a la IA.
  74. Trabajo de riesgo. Ahora no van a llorar cuando vean Bambi
  75. #5 yo lo que no entiendo es cómo hay gente que envía esas cosas a una red social como tik tok si a la mínima te lo tirarán abajo y te cerrarán la cuenta. No me lo explico.
  76. #54 quiénes? Los reptilianos? Qué tiene que ver con lo que tragan los moderadores? Tranquilo que mientras esté dando dinero no sólo no te van a quitar las RRSS sino que seguirán intentando que te enganches más y más... y luego con VR para mayor inmersión y fríe cerebros.
  77. creo que ya se vio alguna vez por aqui una noticia parecida pero con moderadores de google/youtube, estas personas que moderan contenido no suelen durar mucho.
  78. #1 pozi. traducción del español al español:

    moderador de tiktok = agitador

    :troll:
  79. #62 parece que roza el humor negro o absurdo pero es que estas cosas parecen la típica pregunta para entrar en los eeuu. planea usted hacer terrorismo contra los americanos? planea usted violar niños y comerlos a la plancha? :shit:
  80. Pero si esto ya pasaba con facebook hace más de 10 años, de verdad no sabían que coño iban a ver teniendo en cuenta que es algo global y que hay mucha gente tarada de la cabeza???

    O te insesibilizas y te jodes la vida, o te traumatizas y te jodes la vida.
  81. #54 malas no sé, un estorcolero, sin duda.

    Pero espero que no las cierren, así es más fácil detectar subnormales. Y subnormalas, perdón
  82. ha facilitado un documento que los moderadores firmaban reconociendo que iban a revisar "contenido gráfico, violento, sexual, explícito, político, profano y altamente perturbador". Pero los empleados con los que ha hablado Business Insider aseguran que el formulario es uno de los muchos papeles que firman durante su incorporación y que no le prestan especial atención.
  83. #46 estoy de acuerdo. Y ahora nos damos cuenta gracias al reflejo de internet. Nos vienen engañando toda la historia. Antes habia solo 4 canales y tragamamos todo. No habia reflexion porque no habia mas opciones. Ahora nos damos cuenta quienes somos y porque. No nacimos idiotas nos han educado asi. Y no viene de ahora!!!
    Es muy duro despertar.
  84. #51 @Bloodsucker, un pobre incapaz. Parece mentira que los @admin no tomen medidas contra gente que sistemáticamente vota negativo a comentarios: ¿No hay unas normas de uso?
  85. #74 Es cierto que aceptaron el trabajo y probablemente tenían claro de qué iba. Pero aunque el mecanismo que dices pueda funcionar, también me parece justo que tengan derecho a exigir desde donde están.
  86. #15 A mí me pasó, lo que pasa es que la historia la protagonizaba una niña del sudeste asiático de no más de 12 años. Me asusté y lo borré corriendo, hoy habría llamado a la policía por si pudieran trazar algo.
  87. #90 Con cierta gente, emplear un lanzallamas es algo demasiado higienico
comentarios cerrados

menéame