Durante décadas, la información que recibíamos la decidían directores de periódicos, radios y televisiones. En el mundo digital, creemos que la elegimos nosotros mismos. Pero, en realidad, influyen bastante los algoritmos.
Cada vez más usuarios de internet recibimos la información y las noticias a través de plataformas cuyo contenido está seleccionado de forma más o menos automatizada por un algoritmo. Un proceso que elige lo que vemos en función de nuestros gustos e ideas, pues su principal objetivo es que nos agrade lo que consumimos y pasemos más tiempo allí.
Este fenómeno, inicialmente diseñado para reforzar la personalización del contenido, ha tenido una serie de efectos más o menos perversos. El más conocido es el llamado filtro burbuja, descrito por Eli Pariser en 2011. Como tendemos a interaccionar con aquello que nos gusta, al final los algoritmos solo nos mostrarán informaciones y comentarios que coinciden con nuestra visión del mundo. Como resultado, viviremos en una burbuja (de redes sociales) en la que parece que todos piensan como nosotros.
Los algoritmos de las plataformas premian el engagement por diseño. Es decir, como explica el fundador de Algotransparency.org en esta entrevista en Nobbot, el objetivo principal es que los usuarios pasen más tiempo en la plataforma. ¿Es posible mantenernos bien informados si los algoritmos deciden lo que leemos?
La realidad de los filtros burbuja
De los filtros burbuja han corrido ríos de tinta. Hilos de Twitter, libros, artículos sesudos y muchos papers han analizado el fenómeno durante los últimos 10 años. Instituciones como el Nieman Lab de la Universidad de Harvard o el Knight Center de la Universidad de Texas han dedicado muchos esfuerzos a estudiar esta realidad. Pero la respuesta más visual ha llegado desde el Instituto Tecnológico de Massachussets (MIT).
En un trabajo publicado en agosto de 2018 mostraban de forma gráfica cómo se reparten las burbujas ideológicas en Twitter, al menos en Estados Unidos. Más allá de la visualización, el análisis del MIT ayudó a comprender el comportamiento ideológico de las redes sociales. Las diferentes formas de ver el mundo se reparten más o menos de forma equitativa. Es decir, no se aprecia una gran polarización a nivel usuario. Sin embargo, los usuarios más extremistas sí eran mucho más activos que los moderados. Y, además, cuanto más cerca de los extremos, más uniformes eran las opiniones.
Por otro lado, el estudio del MIT señala que, poco a poco, toda la industria mediática ha ido cayendo en esta división, retroalimentándola. Además, los perfiles falsos y los troles aprovechan esta polarización para convertirse en voces influyentes y difundir sus mensajes, muchas veces sesgados o falsos. Es decir, los filtros burbuja no solo nos mantienen aislados, sino que contribuyen a la desinformación.
En los últimos años, el fenómeno ha abandonado el ámbito académico. Hoy, las grandes compañías de redes sociales como Facebook o Twitter, las operadoras, muchas administraciones e instituciones, como la Unión Europea, y organizaciones periodísticas han intentado encontrar una salida a este problema. De momento, sin demasiado éxito.
Pinchar la burbuja es posible
Subsanar algunos de los aspectos que, a nivel de diseño, generan los filtros burbuja es posible. Sin embargo, no es menos cierto que está en la mano de los usuarios trabajar para pinchar esas burbujas. Si la intención es estar bien informado en el reino de los algoritmos, existen una serie de buenos hábitos que podemos poner en práctica:
- Abandonar nuestra zona de confort intelectual. Buscar contactos o personas a las que seguir con opiniones diversas a las propias. Al igual que sucede en el mundo físico, rodearse de variedad nos ayudará a tener una visión más completa de las cosas.
- Evitar bloquear a contactos porque no nos gusta cómo piensan. Leer sus comentarios desde la distancia, omitiendo los juicios emocionales y desafiando nuestras propias posturas.
- Debatir con usuarios con visiones opuestas a las nuestras desde el respeto, argumentando e intentando que la conversación sea enriquecedora.
- Eliminar con regularidad los códigos que permiten la personalización en la web, es decir, las cookies. Al navegar en modo privado ya estaremos evitando la personalización de las búsquedas en base a nuestras preferencias.
- Seguir a las plataformas de fact checking, encargadas de contrastar datos sesgados y fake news. Además, podemos tener en cuenta una serie de consejos para usar las redes sociales de forma adecuada y detectar los bulos antes de compartir cualquier información.
Por otro lado, existen una serie de herramientas digitales, como, por ejemplo, esta extensión de los creadores de AdBlocker para Chrome, que nos advierten de información sesgada, inexacta o falsa. Esta otra plataforma, Gobo, diseñada por el MIT Center for Civic Media, nos permite centralizar en un único lugar todas nuestras redes y ajustar los filtros para que no sean los algoritmos los que decidan lo que vemos.
Internet nos iba a traer una sociedad más y mejor informada que nunca. Por el camino han surgido obstáculos, pero el objetivo todavía está al alcance de nuestra mano.
Por Juan F. Samaniego
Imágenes | Unsplash/camilo jimenez, Alex Alvarez, Austin Distel