La web nació como un ecosistema abierto y descentralizado: conectas tu nodo y comienzas a cargar y descargar contenido. Sin pedir permiso. Sin que puedan impedirlo. Esta es la web que muchos abrazamos; una de las más fabulosas aventuras de la civilización. En 2005 escribíamos en nuestros sitios web. Y en nuestros blogs. Y en comunidades en línea. Nos escribíamos unos a otros, y era divertido. En 2025 la web —e internet— es un asco. Ya no escribimos para los otros y para el mundo: escribimos para los algoritmos. 🤔 El SEO llenó la web de contenido-basura dirigido a los robots1. La mayoría de los sitios web se ha llenado de «keywords» y redundancias «para salir más arriba en Google». 🤔 La IA generativa reduce casi a cero el coste de crear contenidos prácticamente indistinguibles de los que antes elaborábamos los humanos. Y la web se está infestando rápidamente de este contenido automático. 🤔 En las plataformas como YouTube, los creadores monetizan sus vídeos seduciendo al algoritmo. ¿Y el algoritmo qué pide? «Engagement». ¿Y cómo pagan los creadores ese tributo? Con «clickbait», efectismo y sensacionalismo. 🤔 Las redes sociales nos ofrecen generosas dosis de la misma cicuta: el algoritmo determina qué recibe «reach» (alcance). ¿El incentivo? Capturar tu atención. Viralidad. Dopamina. La web era un ecosistema abierto y descentralizado de páginas y comunidades digitales. Los blogs y sitios web personales fueron el Everest de una época. Veinte años después, la web está sumida en una espiral autodestructiva: ⚠️ Los protocolos abiertos, como RSS, han sido fagocitados por plataformas cerradas como Facebook o X. ⚠️ La topología distribuida original, a la que cualquiera podía conectar su nodo, es reemplazada por servicios centralizados que pueden cerrar o silenciar tu cuenta. ⚠️ Y lo que sobrevive de la web está anegado de contenido escrito por máquinas (IA) o para máquinas (SEO). ¡Ya no escribimos para los demás y para el mundo! Ahora escribimos para algoritmos. Este es el signo de los tiempos. ____ 1 Las arañas o «crawlers» como Googlebot, que rastrean la web y califican los sitios en función de su contenido.