¿Cuántas veces pensamos “el teléfono me escucha”? ¿Cuántas notificaciones recibimos de un compilado de fotos con “los mejores atardeceres”? ¿Y de un ex? ¿Cuánto saben las máquinas de nosotros? Muchísimo, porque todo lo que hacemos deja un rastro y configura lo que internet nos va a ofrecer. Por ejemplo, si vas a la configuración de tu cuenta de Google y chequeás el Centro de Anuncios vas a ver que a medida que usás tus dispositivos conectados a internet, tu perfil es más detallado. Google sabe si sos inquilino, si estás casado, si tenés mascotas, si hablás otros idiomas. Y vos no hiciste más que aceptar los términos y condiciones.
El modelo de negocios son los datos. Meredith Whittaker (ex Google, investigadora y presidenta de una empresa de mensajería pro privacidad llamada Signal) lo plantea como “el pecado original”. Para que todo lo que usamos exista, aceptamos; sabiendo o no, que nuestros datos se extraen, procesan y venden. Es una cuestión de arquitectura, de diseño.
A partir de los trabajos de Shoshana Zuboff -socióloga y docente en Harvard- y Flavia Costa -doctora en Ciencias Sociales por la UBA, que prologó a Zuboff- es posible reconstruir una secuencia que comienza en los 2000 cuando Google se da cuenta de que los “residuos de datos” pueden usarse para predecir comportamientos. Después hay una concentración del poder de cómputo: quién junta más y mejor. Luego se una “activación de conductas a distancia” para moldear además de predecir: contenido especialmente ofrecido para que te quedes más tiempo dentro la plataforma (o sea: scroll infinito + anuncios personalizados). Y al final, la vigilancia como sistema autosuficiente que redefine la gobernanza y compromete la democracia.
Volviendo a Whittaker, la presidenta de Signal, esta discusión es central porque la privacidad es una cuestión de soberanía. Necesitamos espacio para lo auténtico, lo opaco, lo que nos permite ser libres. El problema es sistémico y no hablamos de un sistema abstracto y lejano, sino de uno del que formamos parte todos los días, uno del que somos un engranaje fundamental.
Todos estamos en esa cadena de producción
Zuboff lo llama la paradoja de la privacidad: todos la queremos pero todos -de manera directa o indirecta- colaboramos con el sistema para no tenerla ¿Cómo hacemos para salir de ese torbellino sin irnos a vivir a una cueva?
Necesitamos espacio para lo auténtico, lo opaco, lo que nos permite ser libres. El problema es sistémico y no hablamos de un sistema abstracto y lejano, sino de uno del que formamos parte todos los días, uno del que somos un engranaje fundamental.
Para todo aquel que haya nacido sin internet, los servicios de los dispositivos digitales y sus frutos plantean una panacea de lo ilimitado. Sacar fotos sin parar, mandar mensajes sin parar, subir cosas a redes sin parar. Hay una sensación de “libre y gratuito” difícil de desarmar.
Nada es gratis en la vida
Cada cosa que hacemos en internet genera un dato y ese dato tiene valor: valor porque tiene un precio y valor porque ese rastro que dejamos se convierte en publicidad, de geolocalización, de preferencias o entrenamiento para el algoritmo. Ese también quizás sea el precio de lo que parece ilimitado. Desde el chat con tu abuela hasta las fotos de tu caniche de la infancia. Veamos algunos ejemplos.
Es 2024 y un amigo le pregunta a la IA de Meta (que está en WhatsApp, Instagram y Facebook sin opción de desactivarla) cómo está entrenada. La IA le responde que se entrenó con chats. Solo es buena para charlar y por eso mi amigo sospecha. Le pregunta, entonces, por el cifrado en los mensajes y la IA dice que depende del servicio, que los dueños de la plataforma pueden hacer uso de la información. La IA incluso le sugiere no usar Meta.
Dos años después, la semana pasada, Meta anuncia que dejará de cifrar los mensajes “de extremo a extremo” en el chat de Instagram. Ahora todos los mensajes privados que escribas vos y que lea tu destinatario son plausibles de leerse. El DM, el mismo canal por el que seducimos, compartimos con amigos y despotricamos contra nuestros enemigos, deja de ser “privado”.
Otro caso es el de Google Fotos, la biblioteca en la que ordenamos las imágenes de nuestros teléfonos Android, a través de las etiquetas. Las etiquetas que vamos poniendo fueron entrenando a IAs que hoy usamos para que aprendan a distinguir animales de paisajes, ciudades, y hasta nombres y caras de personas. Cuando etiquetás a tu gato, es decir, le das a la máquina feedback humano, le estás confirmando “así se ve un gato”.
Así que si querés dejar de ver a tu ex en tus fotos, lo etiquetás, seleccionás la opción de “no mostrar” y Google Fotos lo ocultará por vos. Las IAs siguen aprendiendo gracias a tu ayuda. Ah, y mientras vos mandás mensajes por Telegram porque te dijeron que es más seguro, se filtran todas las bases de datos del RENAPER.
mientras vos mandás mensajes por Telegram porque te dijeron que es más seguro, se filtran todas las bases de datos del RENAPER.
Trabajamos gratis para las máquinas. Y trabajamos entre todos. Un caso de entrenamiento “colaborativo” es el de los anteojos Ray-Ban de Meta, que sirven para filmar, sacar fotos e interactuar con IAs. Una investigación periodística sueca reveló a principios de marzo que empleados keniatas tercerizados por Meta ven todo tipo de videos íntimos de los usuarios, como visitas al baño, desnudos, actividad sexual y los códigos de tarjetas bancarias. Los keniatas clasifican esos videos para entrenamiento con aprendizaje profundo para IAs: Reinforcement Learning from Human Feedback. Los usuarios de los Ray Ban by Meta habían aceptado en los términos y condiciones de uso que los keniatas (y Meta) rompieran su privacidad.
Charlamos todo -todo- con las máquinas. Una adolescente organizó una masacre escolar en Canadá con ChatGPT. La empresa lo supo antes pero no avisó. Un tipo de 36 años se suicidó en Miami acompañado por Gemini, la IA de Google, con la que había entablado una relación romántica descontrolada.
Zoe Hitzig, una de las principales investigadoras de OpenAI, dueños de ChatGPT, renunció este febrero con un artículo en el New York Times al declarar: “Los usuarios de ChatGPT han generado un archivo de franqueza humana que no tiene precedentes, en parte porque la gente creía que estaba hablando con algo que no tenía segundas intenciones”. Sam Altman, CEO de OpenAI, hace lobby para que esas conversaciones sean confidenciales, pero él las usa y las vende como parte del entrenamiento del modelo.
La cumbre del negocio de datos es Palantir, la empresa que armó una máquina de encontrar. Cruzando gigantescos conjuntos de datos logran procesar, identificar y encontrar personas, objetivos de guerra, inmigrantes ilegales o lo que sea que necesite una empresa privada como Wendy’s o el Gobierno de los Estados Unidos. Su especialidad es la kill chain o cadena de la muerte: usan IA y ciencia de datos para matar mejor y más rápido.
La cumbre del negocio de datos es Palantir, la empresa que armó una máquina de encontrar. Su especialidad es la kill chain: usan IA y ciencia de datos para matar mejor y más rápido.
Esta malla sin costuras en la que estamos entrelazados todos los que usamos dispositivos conectados a internet (sí, todo: una tele, un teléfono, un electrodoméstico con wifi) no termina ahí, porque el futuro empezó hace tiempo. Elon Musk con Neuralink ya tiene pacientes con parálisis severa o mudos que, con implantes cerebrales, pueden hablar o manejar sus dispositivos con la mente. Las interfaces cerebro computadora, o BCI por sus siglas en inglés, pueden ser no invasivas como la pulsera de Meta pero no son un cuento de ciencia ficción, son un hecho que también desarrolla China con la primera patente industrial de chips cerebrales. Hasta ahora nadie asegura que no puedan tomar la información para comercializar la última frontera de lo íntimo: el pensamiento.
FC/VDM





