Más información y eliminación de contenidos más rápida para más personas

Una actualización de lo hacemos para hacer cumplir las políticas de la comunidad de YouTube

En diciembre comunicamos la ampliación de nuestro trabajo para eliminar los contenidos que infringen nuestras políticas. Hoy ofrecemos una actualización y más información sobre lo que estamos realizando en este terreno, incluyendo la publicación de nuestro primer Informe sobre Cumplimiento de las Políticas de la Comunidad de YouTube.

Ofreciendo más información

Estamos dando un primer paso importante con la publicación de un informe trimestral, sobre el cumplimiento de nuestras políticas de la comunidad. Estas noticias periódicas ayudarán a mostrar el progreso que realizamos a la hora de eliminar los contenidos que infringen las normas de nuestra plataforma. A finales de año, planeamos mejorar nuestros sistemas para elaboración de informes, además de incorporar datos adicionales, incluyendo información sobre los comentarios, sobre la velocidad de la eliminación de contenidos y los motivos para la eliminación de dichos contenidos.

También presentamos un nuevo dashboard que cada usuario de YouTube podrá utilizar de forma individualizada para ver el historial y estado de los vídeos que han marcado para que nosotros los revisemos y decidamos si infringen las políticas de la comunidad.

Las máquinas nos ayudan a ocuparnos de los contenidos que infringen nuestras políticas

Las máquinas nos ayudan a marcar contenidos para una revisión a gran escala, facilitándonos la eliminación de millones de vídeos que infringen nuestras políticas incluso antes de que puedan ser vistos por los usuarios. Asimismo, nuestras inversiones en aprendizaje automático nos ayudan a acelerar estas eliminaciones y nos están proporcionando beneficios en campos de alto riesgo y bajo volumen (como, por ejemplo, en extremismo violento) y en campos de alto volumen (como en el caso de contenido de spam).

Aspectos destacados del informe (basándonos en los datos de octubre a diciembre de 2017):

  • Hemos eliminado más de 8 millones de vídeos de YouTube durante estos meses. La mayoría de estos 8 millones de vídeos fueron en su mayoría spam o de personas que han intentado subir contenidos adultos – y tan solo representan una fracción del porcentaje de visitas totales de YouTube durante este período. 
  • 6,7 millones fueron marcados para revisión de forma automática por nuestros sistemas, en vez de por personas. 
  • De estos 6,7 millones de vídeos, un 76% se eliminaron antes de ser vistos una sola vez.

Por ejemplo, a principios de 2017, un 8% de los vídeos marcados y eliminados por extremismo violento se retiraron cuando habían sido vistos menos de 10 veces. Presentamos el marcado por aprendizaje automático en junio de 2017 y, en la actualidad, más de la mitad de los vídeos que eliminamos por extremismo violento han tenido menos de 10 visualizaciones.

El valor de las personas y de las máquinas

Implementar aprendizaje automático significa más personas revisando el contenido, no menos. Nuestros sistemas confían en la revisión por parte del personal para valorar si los contenidos infringen nuestras políticas. Para más información sobre nuestro proceso de marcado y revisión por parte del personal, consulta este vídeo:

El año pasado nos comprometimos a que el número de personas que se encargaran de revisar los contenidos de YouTube marcados llegase a 10.000 a finales de 2018. En YouTube, hemos atendido la mayoría de las funciones adicionales necesarias para alcanzar nuestra contribución al logro de ese objetivo. También hemos contratado a especialistas a tiempo completo con experiencia en extremismo violento, contraterrorismo y derechos humanos y hemos ampliado los equipos de expertos a nivel regional.

Seguimos invirtiendo en la red de más de 150 expertos universitarios, partners gubernamentales y ONG para hacer cumplir nuestras políticas de la mejor forma posible, incluyendo el Centro internacional para el Estudio de la Radicalización del King’s College de Londres, la Anti-Defamation League y el Family Online Safety Institute. A estos debemos añadir otros partners centrados en la seguridad de los más jóvenes, como Childline South Africa, ECPAT Indonesia y el Parents’ Union on Net en Corea del Sur.

Nos comprometemos a garantizar que YouTube continúe siendo una comunidad dinámica con unos fuertes sistemas para la eliminación de contenidos que infrinjan nuestras políticas y estamos deseando proporcionar más información sobre el funcionamiento y la mejora de dichos sistemas a lo largo del tiempo.


Source: Google Oficial