Shosaha Zuboff nos regala muchas imágenes en su descripción del capitalismo de vigilancia. En la UBA, solemos estudiar la privacidad como un derecho jurídico, pero Zuboff lo desplaza hacia una necesidad ontológica y política.
El «santuario» no es solo una casa o habitación; es el espacio interior donde el individuo puede ser, pensar y sentir sin ser observado, medido o convertido en dato. Esto es, sin santuario, no hay sujeto: si cada uno de nuestros movimientos, dudas o estados de ánimo están siendo registrados por un sensor (celular, domótica, wearables), la espontaneidad desaparece.

A diferencia del Panóptico de Foucault, donde el sujeto se disciplina porque sabe que lo miran, en el capitalismo de vigilancia el sujeto es modificado porque el sistema lo conoce mejor que él mismo.
Si el algoritmo de TikTok o Instagram ha procesado cada uno de nuestros momentos de «santuario» (nuestras búsquedas nocturnas, nuestras vacilaciones al ver un perfil o nuestros patrones de sueño – registrado por un reloj digital – ), ya no solo registra quienes somos: define quién podemos llegar a ser.
La Mirada del Gran Otro Digital
Para Shoshana actuamos para una audiencia algorítmica. Como sujetos, performamos nuestra su vida bajo los parámetros que la plataforma premia (visibilidad, métricas). En este caso, Geert Lovink diría que esto nos vacía por dentro: ya no hay un «yo» privado, hay un «yo» para el flujo de datos.
Como ya analizamos en otros posteos, el capitalismo de vigilancia no quiere solo datos; quiere certidumbre. Para que el mercado de futuros conductuales sea rentable, el usuario debe ser predecible al 100%. Para Zuboff si el sistema predice que mañana una persona va a comprar X o votar a Y basándose en sus micro-gestos de hoy, el sistema hará todo lo posible (mediante nudges o empujoncitos algorítmicos) para que efectivamente se realice.
Como estuvimos conversando el jueves en el espacio de Teóricos y Práccticos, aqui se presenta la idea de la aniquilación del futuro. El futuro se basa en la contingencia, en la posibilidad de cambiar de opinión, en el error . Si el algoritmo nos encierra en un » filtro burbuja » basado en nuestro pasado (por ejemplo) nos quita la oportunidad de encontrarnos con lo diferente. De alguna forma, nos prohíbe el asombro.
Veamos un pequeño ejemplo: analicemos los sistemas de crédito o seguros basados en comportamiento digital. Imaginemos que una empresa de seguros de salud analiza nuestros posteos o nuestros patrones de compra de comida por apps (datos de nuestro santuario). Si el sistema decide que somos un «perfil de riesgo» antes de que nos enfermemos, nos está cerrando el futuro.
No importa si decidimos empezar a correr o a comer sano hoy; para el gran otro digital, la «identidad datificada» ya está escrita. El algoritmo nos condena a ser nuestro pasado.
La Tristeza de Lovink como «resignación algorítmica»
Aquí conectamos con Geert Lovink. Este autor sostiene que estamos «tristes por diseño» porque la interfaz nos quita la agencia. Sentimos que no importa qué hagamos, el sistema ya nos tiene «fichados».
Argumenta que la comunicación digital se ha reducido a una serie de micro-confirmaciones de existencia. No buscamos dialogar, buscamos ser registrados por el sistema.

Veamos un poco esto: en Instragram (Stories) nosotros reaccionamos a través de la función de un emoji rápido o el «corazón» en un mensaje directo. Esta función reemplaza la articulación del lenguaje por una señal binaria. Lovink llama a esto la pérdida de la interioridad. Al automatizar la respuesta, la plataforma elimina el tiempo de reflexión. La «tristeza» surge cuando el usuario se da cuenta de que su interacción es intercambiable: da igual quién mande el emoji, el efecto en la base de datos es el mismo.
El capitalismo de vigilancia es una fábrica de destinos. La lucha por la comunicación es, hoy más que nunca, es la lucha por recuperar el derecho a ser impredecibles.
La «teoría del estancamiento» vs. la promesa de novedad
Mientras las plataformas venden «novedad constante», Lovink denuncia que estamos en un estado de estancamiento dinámico. Todo se mueve muy rápido para que nada cambie.
Miremos un poco X (Twitter): el algoritmo de «tendencias» y el refresh de la cronología. Pasamos horas leyendo sobre una polémica que mañana será olvidada. Lovink sostiene que este «ruido» impide la organización política real. Estamos demasiado ocupados «reaccionando» al presente como para construir un futuro.
Como conversamos en el espacio presencial del Teórico, estamos en un Presente continuo.
Justamente, hablamos del fenómeno del doomscrolling (deslizar noticias trágicas sin parar). La interfaz nos permite «sentir» que estamos informados y comprometidos, cuando en realidad estamos paralizados psíquicamente frente a la pantalla.
La «identidad como performance cuantificada»
Lovink critica la obligación de «gestionar el yo» como si fuera una marca. La identidad ya no es un proceso interno, sino un activo digital externo. Incluso aplicaciones que nacieron para ser «reales» (como BeReal) terminan convirtiéndose en una carga de gestión. Lovink señala que la tristeza deviene del agotamiento de la performance. Hoy el «yo» es un trabajador no remunerado de la plataforma: trabajamos produciendo contenido para que la arquitectura de vigilancia de Zuboff tenga algo que procesar.

La «extracción de la intimidad» (santuarios invadidos)
Cruzando a Lovink con la pérdida del santuario de Zuboff, vemos cómo lo privado se vuelve público no por elección, sino por presión de diseño. La plataforma convierte la ausencia en una sospecha. Si una persona no esta «en línea» o no comparte su ubicación en un grupo, queda fuera del flujo social. Lovink denomina esta acción como la «colmena conectada»: una masa de individuos que no pueden desconectarse porque el diseño de la red ha patologizado el silencio. Esto lo pueden observar en la función de «ubicación en tiempo real» o en los ¨estados¨.
Como comunicadores, nuestro campo de batalla no es el «mensaje», sino la infraestructura. Debemos preguntarnos si es posible construir una comunicación que no nos pida a cambio nuestra salud mental y nuestra privacidad.
Y aqui una distinción importante: la arquitectura es el diseño del arma, pero la infraestructura es el territorio ocupado. Aunque a veces se usan como sinónimos debemos ser precisos con la distinción técnica para entender a Lovink y Zuboff.
Cuando hablamos de arquitectura, nos referimos al software y al diseño de la interfaz (UI/UX). Es lo que Lovink analiza como «psicopatología del diseño».
- Es el «cómo»: Cómo está dispuesto el botón de like, cómo funciona el scroll infinito (Aza Raskin), cómo se ocultan las opciones de privacidad.
- El objetivo: Capturar la atención y producir la «tristeza» mediante la repetición.
- Ejemplo: La arquitectura de TikTok está diseñada para la desposesión de la voluntad. No elegímos qué ver; la arquitectura de la «For You Page» decide por nosotros. Es una arquitectura de la obediencia.
En cambio, la infraestructura es la base material, económica y técnica que sostiene esas arquitecturas. Es lo que permite que el capitalismo de vigilancia exista como sistema global.
- Es el «con qué»: los servidores (Data Centers), los cables submarinos, los sistemas de aprendizaje profundo (IA), y fundamentalmente, los modelos de negocio basados en la nube.
- El objetivo: La extracción de valor a escala industrial. La infraestructura es lo que permite que nuestro «santuario» (nuestros datos privados) sean procesados y vendidos en milisegundos en los mercados de futuros conductuales.
- Ejemplo: No importa si se cambia la «arquitectura» de una app para que sea más linda; si la infraestructura sigue siendo de Google o Amazon (AWS), el despojo del excedente conductual sigue ocurriendo.
Si solo disputamos o si lo desean, desarmamos la arquitectura, estamos pidiendo «mejores diseños» o «redes sociales más éticas» (un enfoque reformista). Pero si hackeamos la infraestructura, estamos cuestionando la propiedad y la soberanía.
Cuando decimos que el campo de batalla es la infraestructura, nos referimos a que la comunicación ha dejado de ser una cuestión de «mensajes» (semiótica de primer orden) para ser una cuestión de gobernanza de la técnica.
La aniquilación del futuro ocurre en allí, en la infraestructura. Es en este espacio, donde el «Gran Otro» procesa nuestro pasado para cerrarnos el mañana. No es un dibujo en la pantalla; es un proceso de cómputo masivo en granjas de servidores que operan fuera de cualquier control democrático. Es una intervención política sobre quién es dueño de los servidores, quién escribe los algoritmos y quién tiene el derecho a la opacidad (el secreto).
En este sentido, Lovink sugiere que la única forma de salir de la «tristeza por diseño» es creando infraestructuras soberanas. No basta con que Facebook sea «menos adictivo» (arquitectura); necesitamos que los datos no le pertenezcan a una corporación transnacional (infraestructura).
Debemos desmontar la lógica de la dominación técnica para devolverle al sujeto su capacidad de ser impredecible, es decir, su derecho al futuro.
