El día de ayer estuve navegando por YouTube. Abrí la página
siguiendo un enlace de mi universidad donde debía analizar una conferencia
académica de 40 minutos sobre Procesamiento del Lenguaje Natural (NLP). Vi la
conferencia completa y me dispuse a realizar mi análisis escrito, hasta ahí
nada raro.
Pero esta mañana, al abrir YouTube, me encontré con un
cambio bastante interesante: el famoso "algoritmo" me recibió con una
colección alarmista mal doblada al español: “Cómo la IA destruirá tu trabajo”,
“El apocalipsis siliconense que no quieren que veas”, “ChatGPT: el fin de la
creatividad humana”.
Lo preocupante no fue simplemente el contenido catastrófico
en mi feed, sino su transformación radical. En cuestión de una noche pasé de
ser un estudiante de ingeniería, con intereses en la astronomía y la música, a
una potencial víctima de un apocalipsis tecnológico. El algoritmo había
decidido que ya no necesitaba tutoriales para tocar una canción de Rubén Blades
en mi guitarra, sino que necesitaba ver una guía para reorientar mi carrera
hacia un futuro donde las maquinas reemplazarían a las personas.
Esa experiencia me hizo pensar que los algoritmos no solo
están para recomendar contenido, sino que delimitan el contenido que
consumimos. En su intento por optimizar y personalizar lo que vemos en la
pantalla, terminan trazando una frontera entre lo que debemos ver y lo que se
excluye. Y es ahí donde comienza el verdadero problema, porque se está
delegando la moderación de contenidos a algoritmos entrenados para filtrar lo “inapropiado”
o lo “falso”, sin tener en cuenta que estos sistemas, que operan bajo criterios
aparentemente objetivos, en realidad están condicionados por decisiones humanas
muy bien calculadas.
Lo que me preocupa no es solo lo que eliminan; al fin y al
cabo, cuando no existían los algoritmos avanzados de hoy, las plataformas
contaban con moderadores que hacían más o menos el mismo trabajo. A lo que
realmente hay que ponerle la lupa es a lo que invisibilizan: publicaciones que,
si bien no son borradas, dejan de aparecer en los resultados de búsqueda o en
los muros de los usuarios porque no responden a los intereses de quienes
administran las plataformas. La censura ya no es una prohibición de forma
directa, sino una ausencia planificada.
Y pensar que el algoritmo es neutral no es más que una
ilusión. Cada línea de código responde a una interpretación subjetiva del
mundo, y esas interpretaciones deciden qué información nos llega y qué
contenido consumimos. En esta era de filtros automatizados, el verdadero poder no
está en quien crea el contenido, sino en quien programa lo que debe ser visto.
Cuando el código tiene dueño: el mito de la neutralidad
La idea de que el algoritmo de nuestras plataformas
digitales es neutral y objetivo no es más que una de las mentiras más
peligrosas de nuestros tiempos, porque todo el contenido que consumimos
responde a los intereses comerciales de las multinacionales que las financian,
a sus políticas corporativas y, por supuesto, a sus sesgos culturales
inconscientes.
La arquitectura de poder que sustenta estas plataformas no
es un efecto colateral, sino el producto fundamental de su diseño. Cada línea
que escriben los programadores responde a intereses comerciales incrustados,
que priorizan el crecimiento económico y la rentabilidad sobre cualquier
consideración ética o democrática. Esto se manifiesta en la elección misma de
qué métricas optimizar: cuando el engagement es el norte absoluto, la calidad
del debate público o la veracidad de la información se convierten en variables
secundarias, sacrificables en el altar de la atención continua.
Esta mercantilización de la experiencia humana en internet
se ejecuta con mecanismos de una sofisticación inquietante. Y es que los algoritmos no son meras líneas de código estáticas, en la actualidad aprenden y se modelan con base en nuestros patrones de conducta, sin salirse
nunca de los parámetros definidos por sus creadores. La utopía de una
personalización basada en nuestros gustos esconde una homogeneización forzada
hacia los comportamientos que generen más rentabilidad. Lo que se nos vende
como un espejo de nuestros intereses no es más que un embudo que dirige de
forma inconsciente nuestra atención hacia los sectores más lucrativos.
Un algoritmo se entrena con inmensos conjuntos de datos. Si
estos datos son históricos y provienen de sociedades con profundos prejuicios
estructurales (racismo, sexismo, clasismo), el algoritmo no solo los aprenderá,
sino que los cristalizará y potenciará. Es el famoso problema del "Garbage
In, Garbage Out" (entra basura, sale basura). Un ejemplo claro fueron los
algoritmos de contratación que, entrenados con datos de una industria dominada
por hombres, empezaron a penalizar sistemáticamente los currículos que incluían
la palabra “mujer” o referencias a equipos femeninos. El algoritmo no era
“racista” o “sexista” en intención, pero su diseño lo convertía en un guardián
de los prejuicios del statu quo.
Y es que muchas veces no se trata solamente de un control
intencionado, sino de una ceguera estructural: equipos de trabajo homogéneos,
formados en las mismas universidades reconocidas y compartiendo cosmovisiones
parecidas, construyen sistemas que naturalizan su perspectiva. El resultado de
todo esto son filtros que, al escalarse globalmente, ignoran la diversidad
cultural e imponen una lógica específica —generalmente anglocéntrica y
tecnocrática—. La moderación del contenido se convierte, por tanto, en un
instrumento donde expresiones culturales o políticas terminan siendo opacadas por no ajustarse a estos moldes preestablecidos.
La verdadera maestría del sistema reside en su capacidad
para presentar esta ingeniería social como un proceso natural y automático. Al
esconderse detrás del mito de la objetividad técnica, las plataformas eluden su
responsabilidad como agentes editoriales. No “toman decisiones”, solo “ejecutan
lo que el algoritmo determina”. Esta ficción permite que el poder corporativo
moldee el discurso público sin las cargas tradicionales de la transparencia y
la rendición de cuentas. La censura ya no requiere de un decreto oficial; basta
con ajustar los pesos en una red neuronal o modificar el umbral de un
clasificador.
Por tanto, el gran desafío que enfrentamos no es técnico,
sino más bien político. Darnos cuenta de que el algoritmo tiene propietario es
entender que la batalla por la libertad de expresión en el siglo XXI se libra,
en gran medida, en el terreno opaco de los sistemas de recomendación, los
modelos de clasificación y las arquitecturas de datos. Exigir transparencia y
control democrático sobre estas infraestructuras digitales no es un
romanticismo tecnológico, sino una condición necesaria para preservar una
esfera pública auténticamente plural.
0 Comentarios