Retirar contenido y revisar comentarios con mayor rapidez: novedades en lo que estamos haciendo para aplicar las normas de la comunidad de YouTube

Siempre hemos usado una combinación de revisores profesionales y tecnología para abordar asuntos de contenido infractor en nuestra plataforma, y en 2017 empezamos a aplicar más tecnología avanzada de aprendizaje automático para marcar el contenido que nuestros equipos debían revisar. Esta combinación de sistemas de detección automática y revisores competentes nos ha permitido ser cada vez más rápidos al aplicar nuestras políticas. 
Nos hemos propuesto hacer todo lo posible por retirar rápidamente contenido que infrinja las normas de la comunidad e informar sobre cómo vamos progresando. Por eso, en abril presentamos un informe trimestral sobre la aplicación de las normas de la comunidad de YouTube. Siempre comprometidos con la transparencia, ahora estamos ampliando el informe para que incluya otros datos como retirada de canales, número de comentarios retirados y motivo, según nuestras políticas, por el que se ha retirado un vídeo o canal. 


Prioridad: retirar contenido infractor antes de que sea visto 

Hemos informado anteriormente sobre cómo la tecnología ayuda a los equipos de revisores profesionales a retirar contenido a una velocidad y en cantidades que serían impensables si solo trabajasemos con personas. Encontrar todo el contenido infractor en YouTube es una tarea titánica, pero creemos que es una de nuestras mayores responsabilidades. Por eso, trabajamos sin descanso para eliminar ese tipo de contenido antes de que se vea muchas veces. 

  • De julio a septiembre de 2018, retiramos 7,8 millones de vídeos 
  • El 81 % de estos vídeos fueron detectados primero por sistemas automáticos 
  • El 74,5 % de los detectados por sistemas automáticos, no se había visto ni una vez 
Cuando detectamos un vídeo que infringe nuestras normas, retiramos el vídeo y damos un aviso al canal. Cancelamos canales completos si se dedican a subir contenido prohibido por las normas de la comunidad o implican infracciones más graves, como la explotación sexual infantil. La gran mayoría de los intentos de abuso procede de participantes malintencionados que intentan subir spam o contenido para adultos: más del 90 % de los canales y más del 80 % de los vídeos que retiramos en septiembre de 2018 se retiraron por infringir nuestras políticas sobre spam o contenido para adultos. 
Si nos centramos en los temas más graves, pero que no suponen un volumen significativo, como el extremismo violento o el contenido que atenta contra la seguridad infantil, observamos que la importante inversión que hacemos para combatir este tipo de contenido da resultado: más del 90 % de los vídeos subidos en septiembre de 2018 y eliminados por extremismo violento y por atentar contra la seguridad infantil tenían menos de 10 visualizaciones. 

Es posible que estas cifras varíen de un trimestre a otro, sobre todo cuando nuestros equipos endurecen las políticas o la aplicación en ciertas categorías para que se retire más contenido. Por ejemplo, en el último año hemos endurecido la aplicación de las normas en materia de seguridad infantil. Para ello, solemos consultar a expertos para cerciorarnos de que nuestras políticas cubren una amplia gama de contenidos que puedan ser dañinos para los niños, por ejemplo, menores peleándose o participando en retos y pruebas potencialmente peligrosos. Comprobamos que el 10,2 % de los vídeos retirados afectaban a la seguridad infantil, mientras que el material de abuso sexual infantil (CSAM) representaba una pequeña fracción del uno por ciento del contenido retirado. 


Comentarios más seguros 

Al igual que con los vídeos, usamos una combinación de sistemas de detección automática y revisores humanos para marcar, revisar y retirar spam, contenido que incite al odio y otro tipo de comentarios abusivos.

Además, hemos creado herramientas para que los creadores puedan moderar los comentarios en sus vídeos. Por ejemplo, los creadores pueden optar por retener todos los comentarios para que se revisen o someter automáticamente a revisión los comentarios con enlaces o que puedan incluir contenido inadecuado. Más de un millón de creadores usan ya estas herramientas para moderar los comentarios que se dejan en sus canales.

También hemos estado endureciendo la aplicación de normas sobre comentarios infractores:

  • De julio a septiembre de 2018, nuestros equipos retiraron más de 224 millones de comentarios que infringían las normas de la comunidad. 
  • La mayoría era spam y el número total de retiradas representa una pequeña fracción de los miles de millones de comentarios que se publican en YouTube cada trimestre. 
  • Aunque hemos retirado más comentarios, hemos comprobado que nuestro ecosistema de comentarios, en vez de reducirse, ha crecido. En comparación con el año pasado, es un 11 % más probable que un usuario habitual deje comentarios. 
Nos hemos marcado como objetivo garantizar que YouTube siempre sea una comunidad dinámica donde la creatividad brille, los creadores independientes se ganen la vida y personas de todos los rincones del mundo, con pasiones e intereses comunes, puedan conectarse. Y esto significa que nos mantendremos firmes en nuestra lucha contra los participantes malintencionados en nuestra plataforma y seguiremos haciendo todo lo posible por retirar contenido ofensivo antes de que sea visto. Somos conscientes de que queda mucho trabajo por delante, así que vamos a seguir invirtiendo en personas y tecnología para retirar contenido infractor rápidamente. Esperamos darte más actualizaciones muy pronto. 

Publicado por el equipo de YouTube
————————————————————————
1 La eliminación de comentarios de los creadores en sus propios canales no se incluyen en nuestros informes, ya que se basan en herramientas de creación de suscripción y no en una revisión por parte de nuestros equipos para determinar una violación de las Normas de la comunidad. 


Source: Google Oficial