Google contratará 10,000 nuevos moderadores para combatir el abuso en YouTube

Google se ha visto envuelta en problemas relacionados con comentarios polémicos, esto principalmente debido a la proliferación de contenido abusivo dirigido a los niños a través de la plataforma de YouTube. De hecho, la compañía de Redmond admitió tener un problema con este tipo de vídeos. 

Las medidas para solucionar el problema han sido diversas. Primero, los de Google optaron por cerrar un poco más de 50 canales y eliminar miles de vídeos, con el fin de hacer de la plataforma un sitio más seguro para los niños.

El problema, sin embargo, ha cobrado una mayor relevancia debido a que esto es lo que se pretendía evitar con el lanzamiento de YouTube Kids. Ante esta disyuntiva, la directora ejecutiva de este servicio, Susan Wojcicki, se dirigió a los usuarios a través del blog de YouTube, anunciando que durante el 2018 perseguirán la meta de contratar a más de 10.000 moderadores de contenido para revisar las plataformas de Google, entre las que destaca YouTube.

Según lo indicado por Wokcicki, los humanos continúan siendo esenciales a la hora de revisar contenido y entrenar los sistemas de Inteligencia Artificial (IA), ya que el juicio humano es crucial cuando se busca tomar decisiones contextualizadas, algo que la Inteligencia Artificial aún es incapaz de hacer. 

En este sentido, la CEO del servicio afirma que desde el mes de junio su equipo se ha encargado de revisar “manualmente” al menos 2 millones de vídeos con temas extremistas y violentos con el fin de entrenar su tecnología de aprendizaje automático para identificar contenido similar en el futuro.

Además, pese a que el aprendizaje del sistema es lento, Wokcicki dejo claro que éste ha permitido eliminar cinco veces más contenido que antes. Según Wokcicki, actualmente, el 98% de los vídeos que se eliminan de YouTube por contenido extremista están marcados por los algoritmos de aprendizaje automático de la empresa.