Transparencia algorítmica: entender por qué vemos lo que vemos

Hace unas semanas me puse a reflexionar sobre mi feed de redes sociales. Noté que, aunque sigo a muchos tipos de cuentas: política, cultura, arte, amigos, la mayoría de lo que aparecía en mi pantalla confirmaba mis ideas. Aunque también, me sugería algunas páginas que no me interesaban, afortunadamente existe la opción de solicitar que no te vuelva a aparecer: cierta propaganda, productos o páginas que no te interesan. Preguntarme por qué veía lo que veía me puso frente a un derecho que necesitamos conocer: la transparencia algorítmica.
La transparencia algorítmica es la idea de que los criterios y procesos detrás de los algoritmos (los programas que deciden qué contenidos te muestran en redes, qué resultados aparecen en buscadores, qué perfiles ves primero) deben ser visibles y explicables para quienes los usamos.
Me encantaría conocer qué lo alimenta (datos, métricas, prioridades) y cómo toma decisiones (qué pondera, qué filtra, qué prioriza), porque creo que esto permite que haya control, rendición de cuentas y que no aceptemos pasivamente lo que nos muestran como si fuera neutral.
La transparencia algorítmica es como preguntarle al DJ de tu playlist por qué puso esa canción y en qué orden, así sabes si realmente responde a tus gustos, o si alguien más (el algoritmo) está decidiendo por ti.
Creo que la transparencia es un asunto de ciudadanía, porque nos permite saber por qué estamos viendo lo que vemos; si fue por nuestra preferencia o por decisiones automatizadas, también nos permite exigir responsabilidad cuando un algoritmo discrimina, margina o manipula, podemos elegir si queremos participar o no en esos sistemas, o al menos usar con consciencia lo que consumimos, así como construir una democracia digital más justa, donde la educación mediática incluya entender los mecanismos invisibles que influyen nuestra percepción del mundo.
Como ciudadanos digitales, tenemos derecho a saber por qué nos muestran lo que nos muestran, porque la información no es neutral, y menos cuando viene curada por un algoritmo.
Visítanos en nuestras redes sociales: @digitalia_col