YouTube limita a los moderadores a ver cuatro horas de contenido perturbador por día. Un movimiento para proteger la salud mental de los trabajadores entre las crecientes críticas - iCrowdNewswire
 
x

RSS Newsfeeds

See all RSS Newsfeeds

Global Regions

United States ( XML Feed )

Mar 14, 2018 8:20 AM ET

YouTube limita a los moderadores a ver cuatro horas de contenido perturbador por día. Un movimiento para proteger la salud mental de los trabajadores entre las crecientes críticas

iCrowdNewswire - Mar 14, 2018
Ilustración de Alex Castro / The Verge

La directora ejecutiva de YouTube, Susan Wojcicki, dijo hoy que la plataforma de video ha comenzado a limitar el número de horas que sus moderadores de contenido a tiempo parcial pueden ver videos perturbadores a cuatro horas por día. La noticia, anunciada durante una sesión de preguntas y respuestas durante la charla interactiva South by Southwest de Wojcicki aquí en Austin, se produce en momentos en que empresas como YouTube luchan por analizar el enorme volumen de contenido subido por los usuarios y asegurarse de que cumpla con sus políticas. Las plataformas que incluyen a YouTube, Facebook, Reddit y Twitter han sido criticadas por someter a contratistas mal pagados a contenido que puede ser extremadamente perturbador.

“Este es un problema real y yo mismo he pasado mucho tiempo mirando este contenido durante el año pasado. Es realmente difícil “, dijo Wojcicki sobre la moderación del contenido. Las soluciones recientes en las que ha incursionado la compañía incluyen tanto limitar las horas diarias que los contratistas realizan este trabajo como proporcionar lo que Wojcicki denominó “beneficios de bienestar”.

Las leyes federales que eximen a las compañías tecnológicas de alojar contenido ilegal aún requieren que eliminen videos ilegales de la plataforma usando una combinación de moderación humana y algorítmica. YouTube implementa un sistema conocido como Content ID para identificar y eliminar infracciones directas que involucran televisión, películas y música con derechos de autor. Pero para los videos que muestran violencia, asesinato, suicidio y otros temas perturbadores, YouTube emplea moderadores humanos a tiempo parcial para confirmar físicamente el contenido de los videos. Estas personas a menudo son contratadas como contratistas y no tienen el mismo acceso a los beneficios de salud mental que los empleados de Google a tiempo completo. No está claro qué tipos de asesoramiento psicológico reciben contratistas a tiempo parcial de YouTube bajo la definición de Wojcicki de “beneficios de bienestar”.

Este problema puede intensificarse en los próximos meses, ya que YouTube se ha comprometido a contratar a 10.000 personas para abordar el tema.limitaciones de sus algoritmos, un proceso que Wojcicki dijo que hoy estaba en curso. La compañía ha estado bajo fuego en los últimos 18 meses por no abordar un aumento en las teorías de conspiración, propaganda, noticias falsas y videos de radicalización religiosa en su platfomr. La respuesta firme de YouTube dio lugar a una serie de boicots publicitarios , empujando a Wojcicki y su equipo a comenzar a tomar el asunto mucho más en serio al emplear más moderadores humanos.

Mientras tanto, YouTube sigue siendo presa de la controversia por su fracaso para detectar las transgresiones obvias. Esta semana, los críticos señalaron que los videos de Teoría de la conspiración de Infowars sobre los atentados con bombas en Austin llegaron a la cima de los resultados de búsqueda de YouTube , algo que la compañía dijo que no podía explicar de inmediato.

Ahora, parece que YouTube está lidiando en un frente separado con el costo psicológico que su solución a estos problemas tiene para los trabajadores a tiempo parcial. Wojcicki reconoció que incluso cuatro horas por día todavía es mucho. Nos hemos comunicado con YouTube para aclarar cuántas horas antes se les pidió a sus moderadores de contenido que miraran este tipo de videos, y actualizaremos la historia cuando recibamos una respuesta.

Contact Information:

Nick Statt

View Related News >