Varias son las compañías tecnológicas que, en los últimos meses, han prometido endurecer su política en contra del contenido inapropiado. Y más concretamente, en contra de los contenidos cercanos al terrorismo o la exaltación religiosa. Ahora le ha tocado el turno a YouTube, después de que lo hiciera Facebook, en prometer nuevos sistemas contra la difusión de este tipo de contenidos dentro de su plataforma. Adelantan que habrá nuevos sistemas automáticos y revisores humanos.
En medio de la polémica por el contenido ‘Family Friendly’, y el etiquetado por
YouTube quiere acabar con el extremismo en su plataforma de vídeos en streaming
Desde la compañía de Mountain View se han comprometido a reducir la difusión de contenido relacionado con grupos extremistas en la medida en que sea posible. Y para ello, desarrollarán un nuevo sistema de revisión más rápida con expertos independientes para la vigilancia y aplicación de una normativa más estricta. Prometen detectar contenido extremista de forma más rápida y actuar con contundencia, pero además han asegurado que contarán con herramientas para la prevención analizando patrones habituales en la configuración de este tipo de contenidos.
Por el momento la compañía confirma que van por el buen camino. En el último medio año, según sus estadísticas, han conseguido acabar con la mitad de los vídeos relacionados con el terrorismo. Pero a partir de ahora aprovecharán la tecnología de ‘machine learning’ para la identificación más rápida de este tipo de contenido, en un importante avance de ingeniería dentro de su plataforma. No se van a eliminar todos los vídeos, pero sí se establecerán limitaciones a la visibilidad y se impedirá la monetización. De esta forma se mantendrá el equilibrio entre la libertad de expresión y el a la información sin promover lo extremadamente ofensivo.