Transparencia algorítmica: entender por qué vemos lo que vemos

Una mujer sentada cómodamente en un sofá amarillo usa una tablet mientras flota frente a ella una red holográfica de iconos digitales en azul cian —representando seguridad, análisis de datos, automatización, comunicación y más— conectados entre sí. El entorno es un espacio hogareño moderno con plantas, estanterías y luz natural. La escena simboliza la integración de la tecnología en la vida cotidiana, el trabajo remoto inteligente o la gestión personal de servicios digitales desde casa.
Diana Yulieth Socha Hernández
Diana Yulieth Socha Hernández

Total TransmediaAlfabetización mediáticaamieducomunicación

Hace unas semanas me puse a reflexionar sobre mi feed de redes sociales. Noté que, aunque sigo a muchos tipos de cuentas: política, cultura, arte, amigos, la mayoría de lo que aparecía en mi pantalla confirmaba mis ideas. Aunque también, me sugería algunas páginas que no me interesaban, afortunadamente existe la opción de solicitar que no te vuelva a aparecer: cierta propaganda, productos o páginas que no te interesan. Preguntarme por qué veía lo que veía me puso frente a un derecho que necesitamos conocer: la transparencia algorítmica.

La transparencia algorítmica es la idea de que los criterios y procesos detrás de los algoritmos (los programas que deciden qué contenidos te muestran en redes, qué resultados aparecen en buscadores, qué perfiles ves primero) deben ser visibles y explicables para quienes los usamos.

Me encantaría conocer qué lo alimenta (datos, métricas, prioridades) y cómo toma decisiones (qué pondera, qué filtra, qué prioriza), porque creo que esto permite que haya control, rendición de cuentas y que no aceptemos pasivamente lo que nos muestran como si fuera neutral.

La transparencia algorítmica es como preguntarle al DJ de tu playlist por qué puso esa canción y en qué orden, así sabes si realmente responde a tus gustos, o si alguien más (el algoritmo) está decidiendo por ti.

Creo que la transparencia es un asunto de ciudadanía, porque nos permite saber por qué estamos viendo lo que vemos; si fue por nuestra preferencia o por decisiones automatizadas, también nos permite exigir responsabilidad cuando un algoritmo discrimina, margina o manipula, podemos elegir si queremos participar o no en esos sistemas, o al menos usar con consciencia lo que consumimos, así como construir una democracia digital más justa, donde la educación mediática incluya entender los mecanismos invisibles que influyen nuestra percepción del mundo.

Como ciudadanos digitales, tenemos derecho a saber por qué nos muestran lo que nos muestran, porque la información no es neutral, y menos cuando viene curada por un algoritmo.

Visítanos en nuestras redes sociales: @digitalia_col

¿Te gustó este artículo?

Explora más artículos sobre educomunicación y alfabetización mediática

Ver Todas las Entradas
¡Habla conmigo!