Plan similar al anunciado por Facebook

Google anuncia medidas para evitar propaganda terrorista en YouTube

Google anuncia medidas para evitar propaganda terrorista en YouTube
Estadio DeportivoEstadio Deportivo 4 min lectura
A raíz de los últimos ataques terroristas producidos en Europa, Google ha anunciado sus planes para implantar nuevas medidas que eviten la difusión de propaganda terrorista en YouTube, y contempla un aumento del personal en la revisión de los vídeos y también un endurecimiento de las políticas de regulación de los vídeos, en especial los de contenido religioso radical, así como la redirección a contenidos no violentos.
 
Los planes han sido revelados por el vicepresidente senior de Google, Kent Walker, en una entrevista concedida al diario británico Financial Times. En sus declaraciones, el directivo de la compañía de Mountain View expresó su intención de impedir que herramientas como YouTube se conviertan en refugio de propaganda extremista.
 
La primera medida de Google se centra en la implementación de mecanismos de aprendizaje automático más avanzados, con los que la compañía espera "entrenar nuevos 'clasificadores de contenido'" capaces de identificar los vídeos de los terroristas, según explica Walker. Se trata de un plan similar al que ya anunció Facebook hace unos días por los mismos motivos.
 
El reto se encuentra, como explica el directivo, en distinguir los vídeos con contenido que hace apología del terrorismo, y es usado por los grupos terroristas como propaganda, de aquellos que son informativos. "Un vídeo de un ataque terrorista puede ser una retransmisión informativa si lo emite la BBC, o una glorificación de la violencia si es colgado en un contexto diferente por un usuario distinto", apunta Walker.
 
Junto con la aplicación de inteligencia artificial, Walker también ha anunciado la intención de Google de "aumentar el número de expertos independientes" en el programa de moderación de YouTube para los vídeos que han sido denunciados por parte de los usuarios. Para la expansión del programa, Google añadirá 50 nuevas ONG a las 63 organizaciones que ya formaban parte del proyecto, además dotarlo de una mayor inversión.
 
"Las máquinas pueden ayudar a idenficar vídeos problemáticos, pero los expertos humanos todavía juegan un rol en decisiones matizadas sobre la línea que separa la propaganda y la religión violenta o el discurso de interés", matiza el directivo. Dedicarán una parte importante a identificar y frenar contenido enfocado a radicalizar y reclutar extremistas.
 
Google planea también llevar a cabo cambios en la política de condiciones de uso de YouTube. Estas medidas se dirigen concretamente a la moderación de los vídeos "que no violan claramente las condiciones" de la plataforma, como ha declarado Walker.
 
De esta manera, los vídeos que presenten "contenido religioso enardecedor o supremacista aparecerán en el futuro tras una advertencia y no serán monetizados, recomendados o elegibles para la aprobación de comentarios", según Walker. Google aspira a "lograr el equilibrio entre la libertad de expresión y de acceso a la información sin promover puntos de vista extremadamente ofensivos".
 
Por último, la compañía también planea usar Jigsaw para implantar el "método de redirección", especialmente en Europa. Se trata de identificar a los potenciales reclutas de Estado Islámico y redirigir sus búsquedas hacia contenidos antiterroristas, para que puedan cambiar de idea.
Unete a nuestro canal de Whatsapp Únete a nuestro canal de Telegram