Los moderadores de TikTok que describen una cultura de excesiva carga de trabajo y vigilancia constante, confiesan que sus trabajos les han dejado traumatizados y que no se les informó adecuadamente sobre el material que iban a revisar. TikTok recurre a empresas externas para ayudar a la moderación de sus contenidos, una parte vital de su modelo de negocio. Seis moderadores, tanto en activo como antiguos, afirman que han tenido que visualizar de forma constante vídeos gráficos que incluyen abusos a menores, suicidios y asesinatos
|
etiquetas: redes sociales , tiktok , moderadores , vídeos atroces
Pueden no saberlo y aún así necesitar el dinero de un trabajo digno.
Pueden saberlo y aún así pensar que es algo que no les superará y equivocarse.
Incluso pueden saberlo, saber no están preparados y necesitar el dinero para alimentar a su familia.
¿Pobre? ¿Por qué eres pobre? No seas pobre.
Tambien es verdad que tampoco iba buscandolas.
Edit : Esto es lo mas violento que he visto en tiktok... y realmente todas mis arterias han empezado a temblar
www.tiktok.com/@semecaelababaa/video/7104961382931598598
Al final vamos a pedir responsabilidades hasta porque nos quememos con el café de un bar... ah calla, que esto es lo de la vieja y el macdonald.
P.D: Yo veo responsabilidad en la empresa cuando lo fomenta y consiente, si es algo relativo a la operativa no lo veo delito. Te marchas y punto.
Pueden no saberlo y aún así necesitar el dinero de un trabajo digno.
Pueden saberlo y aún así pensar que es algo que no les superará y equivocarse.
Incluso pueden saberlo, saber no están preparados y necesitar el dinero para alimentar a su familia.
¿Pobre? ¿Por qué eres pobre? No seas pobre.
Ver cosas sin interés o irrelevantes por curro es una mierda, pero peor es tener que ver movidas que te pueden afectar emocionalmente
El gobierno americano quiso acabar el tema y cerró la página (o sea que si era una web) y al momento, salieron defensores por todo el mundo, con camisetas y merchandising o como ostia se escriba.
Son las empresas, los intereses económicos los que ahora más que nunca nos manipulan la mente.
Coges a chicos de 13 años, que quieren ver tetas,las IAs ven que lo que más se viraliza son vídeos violentos y porno sádico, pues dale más
Los chavales insensibilizados,en el momento más delicado cuando se desarrolla la sexualidad, viendo violaciones como algo normal.
Y alguien al otro lado ganando dinero y dinero.
No somos así, nos están haciendo así
Los tienes contentos con material y hacen un favor a la sociedad.
El que la IA marca como porno/gore/etc con más del X % de confianza, se marcará como infracción y solamente se debería revisar bajo petición del usuario.
El problema es cuando la IA te marca un ¿5%? de posibilidades de algo chungo y justo lo pasa al revisor humano y sí lo es
Mi comentario era una valoración cuantitativa, no cualitativa, sobre el tema.
Tú te lo puedes imaginar, sí, con mayor o menor acierto, pero no saberlo. Pensar que la gente se mete a sabiendas de que van a ver decapitaciones y muestras de necrofilia es de ignorancia voluntaria.
Por otra parte no se quejan de lo que ven, sino de la actitud de las empresas:
* el aviso sobre el contenido era una frase enterrada en un contrato de vete tú a saber cuántas páginas.
* les obligaban a ver los videos en su totalidad, fuese lo que fuese, aunque ya supieran que hay que descartarlo.
* les empezaron a negar descansos pactados durante la contratación.
Te recomiendo que te leas el artículo, es interesante.
Es como ir a trabajar en una carnicería y descubrir que despiezas y vendes humanos.
moderador de tiktok = agitador
O te insesibilizas y te jodes la vida, o te traumatizas y te jodes la vida.
Pero espero que no las cierren, así es más fácil detectar subnormales. Y subnormalas, perdón
Es muy duro despertar.