Censura algorítmica: cuando los filtros deciden por nosotros


El día de ayer estuve navegando por YouTube. Abrí la página siguiendo un enlace de mi universidad donde debía analizar una conferencia académica de 40 minutos sobre Procesamiento del Lenguaje Natural (NLP). Vi la conferencia completa y me dispuse a realizar mi análisis escrito, hasta ahí nada raro.

Pero esta mañana, al abrir YouTube, me encontré con un cambio bastante interesante: el famoso "algoritmo" me recibió con una colección alarmista mal doblada al español: “Cómo la IA destruirá tu trabajo”, “El apocalipsis siliconense que no quieren que veas”, “ChatGPT: el fin de la creatividad humana”.

 Lo preocupante no fue simplemente el contenido catastrófico en mi feed, sino su transformación radical. En cuestión de una noche pasé de ser un estudiante de ingeniería, con intereses en la astronomía y la música, a una potencial víctima de un apocalipsis tecnológico. El algoritmo había decidido que ya no necesitaba tutoriales para tocar una canción de Rubén Blades en mi guitarra, sino que necesitaba ver una guía para reorientar mi carrera hacia un futuro donde las maquinas reemplazarían a las personas.

 Esa experiencia me hizo pensar que los algoritmos no solo están para recomendar contenido, sino que delimitan el contenido que consumimos. En su intento por optimizar y personalizar lo que vemos en la pantalla, terminan trazando una frontera entre lo que debemos ver y lo que se excluye. Y es ahí donde comienza el verdadero problema, porque se está delegando la moderación de contenidos a algoritmos entrenados para filtrar lo “inapropiado” o lo “falso”, sin tener en cuenta que estos sistemas, que operan bajo criterios aparentemente objetivos, en realidad están condicionados por decisiones humanas muy bien calculadas.

 Lo que me preocupa no es solo lo que eliminan; al fin y al cabo, cuando no existían los algoritmos avanzados de hoy, las plataformas contaban con moderadores que hacían más o menos el mismo trabajo. A lo que realmente hay que ponerle la lupa es a lo que invisibilizan: publicaciones que, si bien no son borradas, dejan de aparecer en los resultados de búsqueda o en los muros de los usuarios porque no responden a los intereses de quienes administran las plataformas. La censura ya no es una prohibición de forma directa, sino una ausencia planificada.

 Y pensar que el algoritmo es neutral no es más que una ilusión. Cada línea de código responde a una interpretación subjetiva del mundo, y esas interpretaciones deciden qué información nos llega y qué contenido consumimos. En esta era de filtros automatizados, el verdadero poder no está en quien crea el contenido, sino en quien programa lo que debe ser visto.

 

Cuando el código tiene dueño: el mito de la neutralidad

 La idea de que el algoritmo de nuestras plataformas digitales es neutral y objetivo no es más que una de las mentiras más peligrosas de nuestros tiempos, porque todo el contenido que consumimos responde a los intereses comerciales de las multinacionales que las financian, a sus políticas corporativas y, por supuesto, a sus sesgos culturales inconscientes.

 La arquitectura de poder que sustenta estas plataformas no es un efecto colateral, sino el producto fundamental de su diseño. Cada línea que escriben los programadores responde a intereses comerciales incrustados, que priorizan el crecimiento económico y la rentabilidad sobre cualquier consideración ética o democrática. Esto se manifiesta en la elección misma de qué métricas optimizar: cuando el engagement es el norte absoluto, la calidad del debate público o la veracidad de la información se convierten en variables secundarias, sacrificables en el altar de la atención continua.

 Esta mercantilización de la experiencia humana en internet se ejecuta con mecanismos de una sofisticación inquietante. Y es que los algoritmos no son meras líneas de código estáticas, en la actualidad aprenden y se modelan con base en nuestros patrones de conducta, sin salirse nunca de los parámetros definidos por sus creadores. La utopía de una personalización basada en nuestros gustos esconde una homogeneización forzada hacia los comportamientos que generen más rentabilidad. Lo que se nos vende como un espejo de nuestros intereses no es más que un embudo que dirige de forma inconsciente nuestra atención hacia los sectores más lucrativos.

Un algoritmo se entrena con inmensos conjuntos de datos. Si estos datos son históricos y provienen de sociedades con profundos prejuicios estructurales (racismo, sexismo, clasismo), el algoritmo no solo los aprenderá, sino que los cristalizará y potenciará. Es el famoso problema del "Garbage In, Garbage Out" (entra basura, sale basura). Un ejemplo claro fueron los algoritmos de contratación que, entrenados con datos de una industria dominada por hombres, empezaron a penalizar sistemáticamente los currículos que incluían la palabra “mujer” o referencias a equipos femeninos. El algoritmo no era “racista” o “sexista” en intención, pero su diseño lo convertía en un guardián de los prejuicios del statu quo.

 Y es que muchas veces no se trata solamente de un control intencionado, sino de una ceguera estructural: equipos de trabajo homogéneos, formados en las mismas universidades reconocidas y compartiendo cosmovisiones parecidas, construyen sistemas que naturalizan su perspectiva. El resultado de todo esto son filtros que, al escalarse globalmente, ignoran la diversidad cultural e imponen una lógica específica —generalmente anglocéntrica y tecnocrática—. La moderación del contenido se convierte, por tanto, en un instrumento donde expresiones culturales o políticas terminan siendo opacadas por no ajustarse a estos moldes preestablecidos.

 La verdadera maestría del sistema reside en su capacidad para presentar esta ingeniería social como un proceso natural y automático. Al esconderse detrás del mito de la objetividad técnica, las plataformas eluden su responsabilidad como agentes editoriales. No “toman decisiones”, solo “ejecutan lo que el algoritmo determina”. Esta ficción permite que el poder corporativo moldee el discurso público sin las cargas tradicionales de la transparencia y la rendición de cuentas. La censura ya no requiere de un decreto oficial; basta con ajustar los pesos en una red neuronal o modificar el umbral de un clasificador.

Por tanto, el gran desafío que enfrentamos no es técnico, sino más bien político. Darnos cuenta de que el algoritmo tiene propietario es entender que la batalla por la libertad de expresión en el siglo XXI se libra, en gran medida, en el terreno opaco de los sistemas de recomendación, los modelos de clasificación y las arquitecturas de datos. Exigir transparencia y control democrático sobre estas infraestructuras digitales no es un romanticismo tecnológico, sino una condición necesaria para preservar una esfera pública auténticamente plural.


Publicar un comentario

0 Comentarios