Así planea Google combatir el terrorismo dentro de YouTube
Pero la firma reconoce que la tecnología no puede ser la única respuesta, por lo que promete aumentar “significativamente el número de expertos independientes” encargados de supervisar los videos.
Por: Redacción Gestion.pe
(Bloomberg) Google afirmó que intensifica sus esfuerzos para luchar contra los contenidos “extremistas o relacionados con el terrorismo” en su plataforma de video YouTube, gracias en particular a la inteligencia artificial.
Al igual que otros gigantes de internet, Google recibe a menudo las presiones de gobiernos que le piden luchar más eficazmente contra este tipo de contenido. A finales de mayo, los líderes del G7 han incluso acentuado su presión sobre estas empresas.
“Trabajamos, como los demás, desde hace años para identificar y eliminar los contenidos que van contra nuestras reglas. Pero por molesto que sea la verdad es que debemos reconocer, y el sector económico también, que hay que hacer más”, escribió el grupo el domingo en un texto publicado en su blog.
Este objetivo “puede ser un desafío: el video de un atentado terrorista puede ser material informativo si es publicado por la BBC, o apología de la violencia si es subido en un contexto diferente por otro usuario”, dijo el grupo.
Cada minuto se suben a YouTube unas 300 horas de video, por lo que resulta humanamente imposible revisarlas por completo. Google promete reforzar su utilización de la inteligencia artificial, de manera que las computadoras “nos ayuden a identificar y eliminar más rápidamente los contenidos extremistas o relacionados con el terrorismo”. El buscador afirma que sus modelos actuales logran detectar más del 50% de los videos inapropiados.
Pero la firma reconoce que la tecnología no puede ser la única respuesta, por lo que promete aumentar “significativamente el número de expertos independientes” encargados de supervisar los videos.
“Las máquinas pueden ayudarnos a identificar los videos problemáticos, pero la experiencia humana permite distinguir entre los videos de propaganda (…) y la información”, explica.
Google señala que en ocasiones la calificación de los usuarios puede ser inexacta, por lo que se requiere del ojo humano más experto e imparcial. El programa se expandirá con la integración de 50 organizaciones no gubernamentales y 63 organizaciones especializadas que trabajan en problemas como el discurso de odio, la autolesión, y el terrorismo.
Cuando un contenido no viole claramente las políticas de YouTube, como por ejemplo contenido religioso en un tono violento o de supremacía de alguna cultura, la empresa los etiquetará para advertir a los usuarios, estos no serán monetizados, no podrán recomendarse y se deshabilitarán los comentarios, para poder limitar su alcance.
Recientemente YouTube fue objeto de un boicot de anunciantes publicitarios tras la aparición de algunos anuncios junto a contenidos polémicos (antisemitas, que incitaban al odio o hacían apología del terrorismo).
Facebook publicó el jueves un texto que detalla sus medidas contra la propaganda extremista, muy similares a estas de Google. La red social tiene ahora más de 150 personas que están enfocadas principalmente en luchar contra el terrorismo, incluyendo un grupo de académicos, analistas y exagentes del orden público.
La empresa de Mark Zuckerberg recientemente empezó a experimentar con inteligencia artificial para entender mejor si el lenguaje usado en las publicaciones es propaganda terrorista; también usa herramientas de coincidencia de imágenes para prevenir que los usuarios suban videos o imágenes de terroristas conocidos y también usa algoritmos para detectar grupos de perfiles afines, páginas y otros que apoyen el terrorismo.
Diario El Observador de Uruguay
Red Iberoamericana de Prensa Económica (RIPE)