(Bloomberg).- Twitter Inc. decidió el año pasado hacer que las imágenes sean más prominentes en su sitio. Ahora, la red social se encuentra atrapada entre ser un foro abierto y vigilar contenido inapropiado.
El patrón es el siguiente: una importante muerte pública hace que se difundan imágenes gráficas a través de Twitter. Los usuarios expresan su indignación, lo que obliga a la empresa a decidir qué quitar.
Dos incidentes recientes ilustran la dificultad de la elección. Mientras que Twitter está haciendo todo lo posible por eliminar imágenes de la muerte de James Foley, el periodista que fue decapitado por militantes islámicos, algunas fotos del cadáver de Michael Brown, el adolescente que fue asesinado por la policía en Ferguson, Misuri, permanecen en las transmisiones de los usuarios.
Para muchos en Twitter, las imágenes de violencia contra Foley pueden ser vistas como la difusión del mensaje de un terrorista, mientras que la difusión de la muerte de Brown brinda una luz sobre una injusticia percibida.
“Están permitiendo que las masas decidan lo que se debería o no se debería publicar”, dijo Ken Light, profesor de fotoperiodismo en la Universidad de California, Berkeley. “Cuando se descubre, necesita ser tratado con prontitud. El vídeo de la decapitación nunca debería ser viral”.
El dilema que enfrenta Twitter, un defensor de la libertad de expresión y distribución de información en tiempo real, no es muy diferente de la de un periódico o una emisora, según Bruce Shapiro, director ejecutivo del Centro Dart para el Periodismo y Trauma en la Columbia Journalism School.
“La situación de Twitter es exactamente igual a la de una organización de noticias”, dijo Shapiro. “La libertad de prensa y la libertad de expresión no significan que se debería publicar cada vídeo sin importar cuán brutal y violento sea”.
Líneas que se cruzan
Los incidentes también ocurrieron justo después de que Zelda, la hija de Robin Williams, dijera que abandonaba Twitter tras recibir mensajes abusivos después de la muerte de su padre.
“Con el fin de respetar los deseos de sus seres queridos, Twitter eliminará las imágenes de personas fallecidas en ciertas circunstancias”, dijo la compañía con sede en San Francisco, en una política que fue promulgada la semana pasada.
“Al revisar dichas solicitudes de retirada de los medios de comunicación, Twitter considera factores de interés público tales como el valor informativo del contenido y podría no ser capaz de honrar a todas las solicitudes”.
El software de Twitter no está diseñado para filtrar de forma automática todo el contenido inapropiado. El equipo de Confianza y Seguridad de la empresa trabaja en todas las zonas horarias para erradicar los problemas una vez que son descubiertos, según Nu Wexler, un portavoz de la compañía. Twitter utiliza la tecnología de análisis de imagen para monitorear e informar imágenes de explotación infantil, dijo Wexler.
Twitter no prohíbe específicamente el contenido violento o gráfico en su sitio -sólo “amenazas directas y específicas de violencia” e “imágenes obscenas o pornográficas”, de acuerdo con sus términos de servicio. Es posible que necesite ir más allá, si la experiencia de Facebook Inc. sirve de guía.