YouTube elimina 7.8 millones de videos por incumplimiento de normas
1.6 millones de canales y 224 millones de comentarios fueron suprimidos por violar su política de contenido
La plataforma de video más popular del mundo, Youtube, eliminó7.8 millones de contenidos visuaslesentre julio y septiembre de 2018 por incumplir con las normas de su comunidad,los cuales fueron detectados por su sistema automatizado.
De acuerdo con el informe trimestral de Youtube publicado en su blog corporativo, 1.6 millones de canales y 224 millones de comentarios fueron suprimidos por violar su política de contenido: "La combinación de tecnología y humanos entrenados nos permite aplicar nuestras políticas sobre contenido con gran rapidez", se lee en la publicación.
Según datos de la compañía el90 por ciento de los canales eliminados en septiembre no cumplía con las normas y eran catalogadas como spam, además fueron vistos menos de diez veces gracias al control de la plataforma.
Asimismo, la compañía retiró en el primer trimestre9.1 millones de videos, mientras en el segundo fueron 7.1 millones.
Youtube está realizando estos procesos de auditoria para comprobar la legitimidad de las cuentas que integran su comunidad, así como la adquisición de suscriptores, aquellas cuentas que consigan suscripciones por medios artificiales ya no podrán participar en el programa de socios de la compañía.
A partir de 2018 la plataforma de video empezó a emitir de manera trimestral reportes para que los usuarios cumplan con sus normativas y los esfuerzos de cumplimiento tengan frutos. Sin embargo, Youtube enfrenta un gran desafío y es el de erradicar contenidos de odio y comportamientos peligrosos.
Incluso grupos de interés y gubernamentales de Europa, Asia y Estados Unidos han estado presionando a los servicios de redes sociales para que identifiquen el contenido extremista que puede ser un detonante de violencia.
Funcionarios han propuesto a Facebook, Twitter y Youtube implementar el cobro de multas por cada material inapropiado que sea puesto en la red. Gracias a la Inteligencia Artificial la detección de un contenido inapropiado ya se hace de manera automática.
Los usuarios de Youtubedeben estar conscientes de las normas y políticas que marca la plataforma. El contenido de odio y los comentarios ofensivos serán eliminadosde forma automática al igual que los canales catalogados como spam,así como los7.8 millones de videosretirados de la red social.
InternetTecnologíaRedes Sociales