Según un gráfico del portal Statista sobre lo que pasa en internet en un minuto, en 2017 se subieron 400 horas de vídeo a YouTube, 243 000 fotos a Facebook y 65 000 a Instagram y se enviaron 350 000 tuits. Repetimos: datos relativos a solo 60 segundos.
Estar situado tras una pantalla da una falsa sensación de anonimato. Hay quien se cree impune para subir a la red el contenido que quiera, ya sea en forma de vídeo, de imagen o con la palabra escrita. Por eso la legislación tuvo que intervenir para establecer que se vean dañados algunos derechos básicos del ser humano.
Según Legálitas, incitar al odio en redes sociales puede suponer para quien lo hace un castigo de hasta cuatro años de cárcel. Un delito que, a diferencia de la querella, cualquier persona puede denunciar si siente que se ha podido cometer.
Sin embargo, y como hemos anotado ya, el contenido en internet no se limita al texto. Vídeos e imágenes también pueden ser objeto de denuncia por contener imágenes violentas, humillaciones, sexo explícito o bien que, simplemente, se muestren hechos delictivos. Tampoco es necesario irse al extremo: una simple infracción de copyright es suficiente para tumbar un contenido publicado.
Una declaración conjunta para conseguir un contenido adecuado
Recientemente, YouTube ha dejado de confiar en el algoritmo que decidía lo que debía dejarse o retirarse de la plataforma. Hasta ahora, este trabajo dependía estrictamente de la inteligencia artificial, de un algoritmo desarrollado por la propia empresa y que discrimina el contenido no adecuado. A partir de la pandemia, YouTube confirmaba que reasignaba este trabajo a humanos.
Esta selección también plantea otro debate: ¿dónde empieza la libertad de expresión? Si confiamos el contenido a un algoritmo, podemos encontrarnos con el caso reciente de publicaciones legítimas relacionadas con el coronavirus que fueron eliminadas. Es por ello que, recientemente, tanto la ya citada YouTube como Twitter y Facebook anunciaron una declaración conjunta en la que aseguraban que la primera línea de moderación de su contenido iba a ser humana.
A raíz de lo contado y teniendo en cuenta la ingente cantidad de información que se publica cada día en internet, se plantea la siguiente pregunta: ¿quién controla lo que se cuelga en las redes?
Veamos caso por caso qué podemos encontrar en relación con el tema de la moderación de contenidos.
Según informaba ‘El Mundo’ en un artículo de 2018, la red social de Mark Zuckerberg cuenta con unos 20 000 moderadores de los cuales 7500 se dedican a revisar el contenido que se publica. Facebook asegura que se encuentran operativos las 24 horas del día para revisar material publicado en hasta 50 idiomas distintos, en algunos casos con contenido muy ofensivo.
A este respecto, la red social decidió compensar a los moderadores que se expusieron a publicaciones violentas en Estados Unidos con 52 millones de dólares.
Twitch
La nueva TV se llama Twitch: miles y miles de personas comparten contenido en directo cada día, ya sean meras charlas entretenidas o gameplays de los videojuegos del momento. El 22 de enero se ponían en marcha unas nuevas reglas para proteger a su comunidad con normativa específica sobre conductas de odio y acoso. Además, cada propietario del canal cuenta con sus propios moderadores, que pueden expulsar de la emisión a todo aquel que no cumpla las reglas dictadas o, incluso, configurar automods para detectar de manera automática mensajes de chat que pudieran ser inadecuados.
Si hay una red social que destaca, precisamente, por haber puesto en la picota el tema de los delitos de odio, esa es Twitter. Y no solo por eso, sino por compartir información manipulada, sesgada o, directamente, falsa. A partir de este año, la red social advierte a sus usuarios de cualquier tuit con información sintética o manipulada que pueda causar daño a la vez que ofrecer un contexto adecuado para que el lector saque sus propias conclusiones. Además, Twitter confía en la responsabilidad del usuario y numerosas cuentas de trols y demás usuarios nocivos son tumbadas gracias a las denuncias colectivas que registran a través del formulario correspondiente.
La moderación de contenido en redes sociales es un tema espinoso. El sobreesfuerzo humano y la exposición a imágenes que, a la larga, pueden causar trastornos en quien las digiere da para otro debate. Del usuario parte la responsabilidad primera: tratar a los demás como les gustaría que fuesen tratados ellos mismos. La educación no solo debe estar presente en la calle y de manera presencial. Al fin y al cabo, tras la pantalla del móvil o del ordenador todos somos personas.
Por Antonio Bret