| Lo que los algoritmos no te cuentan |
| Confiamos en la tecnología con una naturalidad asombrosa. Dejamos que nos recomiende qué ver, qué comprar, qué leer e incluso a quién escuchar. Y, sin embargo, pocas veces nos detenemos a pensar en una cuestión básica: ¿quién ha decidido cómo funciona todo eso? Lorena Fernández lleva tiempo poniendo el foco justo ahí: en lo invisible. En ese lugar donde los algoritmos parecen objetivos, pero en realidad están construidos a partir de datos, decisiones y prioridades humanas. Su planteamiento desmonta una idea muy extendida: que la tecnología es neutral: No lo es. Nunca lo ha sido. |
| Detrás del algoritmo, ¿lo invisible? |
| Detrás de cada sistema automatizado hay una forma de mirar el mundo. Hay criterios, sesgos, omisiones y también intereses. Y cuando olvidamos eso, corremos el riesgo de aceptar como incuestionables decisiones que no son técnicas, sino profundamente sociales. La inteligencia artificial no cae del cielo. Aprende de nosotros. De nuestros datos, de nuestro lenguaje, de nuestras jerarquías y de nuestras desigualdades. Por eso, si una sociedad arrastra prejuicios, la tecnología que entrena con esos materiales también puede reproducirlos. El problema no es solo que una máquina se equivoque. El problema es que lo haga con apariencia de verdad. |
| Claves para relacionarnos con la IA sin ingenuidad |
| La cuestión no pasa por rechazar la tecnología, sino por aprender a usarla con criterio. |
| 1. Recuerda que un algoritmo no es una verdad, sino una decisión programada. Cuando una plataforma recomienda un contenido no está actuando desde una neutralidad pura. Está operando según un diseño previo. Detrás del algoritmo siempre hay personas, criterios y objetivos. |
| 2. Desconfía de la apariencia de objetividad. Que algo esté automatizado no significa que sea justo. A menudo tendemos a confiar más en una decisión tecnológica que en nuestro propio juicio, como si la máquina estuviera por encima del error humano. Pero la IA también falla, simplifica y discrimina. Solo que lo hace con un lenguaje más sofisticado. |
| 3. Piensa de dónde salen los datos. La IA aprende de grandes volúmenes de información histórica. Y esos datos no son inocentes: reflejan el mundo tal como ha sido, con sus desigualdades incluidas. Si alimentas un sistema con sesgos de género, raza, clase o edad, el resultado no será neutral. |
| 4. No olvides que la tecnología tiene propósito. Nada está diseñado porque sí. El scroll infinito, la reproducción automática o las recomendaciones constantes no existen solo para “mejorar la experiencia”. También están pensadas para captar atención, retener tiempo y generar beneficio. La tecnología no solo organiza nuestra vida: también intenta dirigir nuestro comportamiento. |
| 5. Cuestiona lo que parece pequeño o cotidiano. A veces el impacto del sesgo no se percibe en grandes titulares, sino en detalles aparentemente menores: una traducción automática que asocia profesiones distintas a hombres y mujeres, una recomendación que invisibiliza ciertos perfiles, una herramienta que entiende mejor unas voces que otras. |
| IA como respuesta a todo |
| Tendemos a hablar del algoritmo como si fuera una entidad abstracta, autónoma e inalcanzable. Decimos “lo dice el algoritmo” como antes se decía “lo dice la televisión”: con una mezcla de resignación y autoridad. Pero un algoritmo no es un oráculo. Es una herramienta. Y, como cualquier herramienta, responde a la lógica de quien la diseña. Por eso resulta tan importante hacerse una pregunta incómoda: no solo qué hace una tecnología, sino para qué lo hace. Porque cuando una plataforma consigue que pases más tiempo mirando la pantalla, eso no suele ser un efecto secundario. Suele ser el objetivo. |
| “Porque cuando una plataforma consigue que pases más tiempo mirando la pantalla, eso no suele ser un efecto secundario. Suele ser el objetivo.” |
| Tecnología sí, pero con espíritu crítico |
| Lorena Fernández lo deja claro: no hay que ser tecnófobos ni apocalípticos. No hay que plantear una guerra contra las máquinas ni una nostalgia por un mundo analógico idealizado. Lo que propone es algo más útil: incorporar pensamiento crítico a nuestra relación con la tecnología. Entender que una IA puede ser valiosa sin ser infalible. Que puede ayudar sin sustituir el criterio humano. Que puede agilizar procesos sin convertirse en autoridad moral. En el fondo, la cuestión no es si vamos a convivir con algoritmos. Eso ya está ocurriendo. La cuestión es si vamos a hacerlo de forma pasiva o consciente. Porque cuanto más invisibles se vuelven estas herramientas, más necesario resulta aprender a mirar dentro de ellas. O, al menos, a no obedecerlas a ciegas. |
Programa Mejor Conectados