Las gafas invisibles del algoritmo

Alguna vez pensé que lo mejor que me podía pasar era estar rodeada de personas que creyeran lo mismo que yo, que pensaran parecido y compartieran mis gustos. Eso no solo me daba tranquilidad, sino que me hacía sentir validada, como si ese ambiente confirmara mis creencias.
Creía que tener unas gafas especiales que solo me permitieran ver las cosas que me gustaban —mis colores favoritos, la música que me emociona, las noticias que confirmaban mis ideas— era vivir en el mundo ideal. Pero no es así. Puede ser cómodo, sí, pero también significa negar la realidad.
Y, bueno, eso es exactamente lo que pasa en internet.
El término “burbuja de filtros” fue acuñado por Eli Pariser en 2011 para describir cómo los algoritmos de plataformas como Google, Facebook o TikTok personalizan lo que vemos en línea. Estas plataformas analizan tu historial de búsqueda, tus clics, tus interacciones e incluso el tiempo que pasas mirando una publicación. Con esa información, seleccionan qué contenido mostrarte, con el objetivo de mantener tu atención el mayor tiempo posible.
El resultado es un entorno digital que parece hecho a tu medida, pero que también te aísla de la diversidad informativa. Ves solo aquello que refuerza tus creencias, tus gustos y tus emociones. Lo demás —opiniones distintas, datos incómodos o miradas alternativas— desaparece del radar.
Este fenómeno tiene implicaciones profundas para la democracia y la convivencia digital. Si cada persona vive en su propio “universo informativo”, el diálogo se vuelve más difícil y la polarización, más probable. Las burbujas de filtros no solo moldean lo que pensamos, sino también cómo percibimos la realidad.
Durante las elecciones presidenciales de Estados Unidos en 2016, diversas investigaciones (como las de Bakshy, Messing y Adamic, 2015, y el Pew Research Center, 2017) mostraron que los usuarios de Facebook recibían noticias políticas principalmente alineadas con sus propias posturas. Los algoritmos priorizaban las publicaciones que generaban más interacción —likes, comentarios o compartidos—, reforzando así los sesgos de confirmación y reduciendo el contacto con visiones diferentes. Cada usuario, literalmente, veía un país distinto en su pantalla.
Romper la burbuja no es sencillo, pero sí posible. Implica buscar activamente fuentes diversas, seguir a personas con opiniones distintas, verificar antes de compartir y, sobre todo, reconocer que el algoritmo no es neutral.
Porque, en el fondo, las burbujas de filtros no son solo un problema tecnológico: son un reflejo de nuestra necesidad de comodidad cognitiva.
Salir de ellas requiere un esfuerzo consciente por mirar más allá de lo que el algoritmo cree que somos.
Luchemos contra la desinformación: visita digitalia.gov.co
Referencias: The NewYork Times Español Documento Análisis de la campaña