Por Eli Pariser. Publicado en
 www.internazionale.it. Traducido para 
Rebelión por nemoniente.
Pocas personas se han percatado del post aparecido en el blog oficial de  Google el 4 de diciembre de 2009. No buscaba llamar la atención,  ninguna declaración llamativa ni anuncios impactantes de Silicon Valley,  solo unos pocos parágrafos ensartados entre la lista de las palabras  más buscadas y una actualización sobre el software financiero de Google.  Pero no ha escapado a todos. El blogger Danny Sullivan analiza sempre  cuidadosamente el post de Google para tratar de averiguar cuáles son los  próximos proyectos de la empresa californiana y lo ha encontrado muy  interesante. Ha escrito que se trataba del “cambio más grande jamás  acaecido en los motores de búsqueda”. Bastaba el titulo para enterderlo:  “Busquedas personalizadas para todos”.
Google usa actualmente  57 indicadores –desde el lugar en que estamos al navegador que estamos  usando al tipo de busqueda que hemos hecho– para averiguar quiénes somos  y qué sitios visitamos. También cuando no estamos conectados, continúa  personalizando los resultados y mostrándonos las páginas sobre las que  probablemente clicaremos. Normalmente se piensa que haciendo una  búsqueda en Google todos obtenemos los mismos resultados, aquellos que  según el famoso algoritmo de la empresa PageRank tienen mayor relevancia  en relación a los términos buscados. Pero desde diciembre de 2009 ya no  es así. Hoy vemos los resultados que según PageRank nos son más  apropiados, mientras que otras personas ven otros completamente  diferentes. En pocas palabras, Google no es igual para todos.
No es difícil darse cuenta de la diferencia. En la primavera de 2010,  mientras la plataforma Deepwater Horizon vertía petroleo en el golfo de  México, pedí a dos amigos hacer la misma búsqueda en Google. Ambos viven  en el noreste de Estados Unidos y son dos personas muy similares, de  raza blanca, educados y de izquierdas. Los dos buscaron “BP”,  consiguiendo resultados muy diferentes. Uno encontró información sobre  las inversiones relacionadas con BP y otroa noticias. En un caso, la  primera página de resultados de Google contenía los links sobre el  incidente en el golfo; en el otro no aparecía nada sobre el tema, solo  una publicidad de la compañía petrolifera. Incluso el número de  resultados era diferente: 180 millones y 139 millones. Si las  diferencias entre dos personas de izquierda de la costa este eran tan  grandes, imaginémonos cuánto lo serán, por ejemplo, respeto a las de un  viejo republicano de Texas o las de un hombre de negocios japonés.
Ahora que Google está personalizado, la investigación sobre “células  madre” probablemente dé resultados diametralmente opuestos para los  científicos que son favorabls a su estudio y para quienes estén en  contra. Escribiendo “cambio climático”, un ecologista y el dirigente de  una compañía petrolífera obtendrán respuestas diferentes. La mayoría de  nosotros cree que los motores de busqueda son neutrales pero  probablemente lo pensamos porque nos son impuestos para secundar  nuestras ideas. La pantalla del ordenador cada vez mira más por nuestros  intereses mientras los analistas de los algoritmos observan todo lo que  cliqueamos. El anuncio de Google marca el punto de inflexión de una  revolución importante pero casi invisible de nuestro modo de consumir la  información. Podríamos decir que el 4 de diciembre de 2009 comienza la  era de la personalización. 
 Dime lo que quiero  El mundo digital  está cambiando, discretamente y sin hacer demasiado ruido. Lo que hace  un tiempo era un medio anónimo en el que todos podían ser cualquiera –  en el que nadie sabe si eres un perro, como decía una famosa viñeta del  New Yorker
 [iii]   – ahora es una forma de recoger y analizar muestros datos personales.  Según un estudio del Wall Street Journal, los cincuenta sitios más  populares del mundo, desde CNN a Yahoo!, a MSN, instalan una media de 64  
cookies y 
beacons cargados de datos sobre nosotros. Si  buscamos una palabra como “depresión” en un diccionario online, el sito  instala en nuestro ordenador hasta 223 cookies y beacons que permiten a  otros sitios invadirnos con publicidad de antidepresivos. Si hacemos una  búsqueda sobre la posibilidad de que nos engañe nuestra esposa, seremos  acosados por anuncios sobre tests de ADN para determinar la paternidad  de nuestros hijos. Hoy la red no solo sabe si eres un perro, sino  también la raza, y la comida que tiene que venderte.
La carrera  por saber lo más posible de nosotros está ahora en el centro de la  batalla del siglo entre gigantes como Google, Facebook, Apple y  Microsoft. Como ha explicado Chris Palmer de la Electronic Frontier  Foundation, "el servicio parece gratuito, pero lo pagamos con  información sobre nosotros. Información que Google y Facebook están  dispuestos a convertir en dinero". Incluso siendo herramientas útiles y  gratuitas, Gmail y Facebook también son eficientes y máquinas voraces  para extraer información, donde revelamos los detalles más íntimos de  nuestras vidas. Nuestro iPhone sabe exactamente dónde vamos, a quien  llamamos, qué leemos. Con su micrófono integrado, el giroscopio y los  gps, es capaz de entender saber si estamos paseando, nos encontramos en  el coche o en una fiesta.
Aunque Google , hasta ahora, ha  prometido no revelar nuestros datos personales, otros sitios y  aplicaciones populares no lo garantizan. Detrás de las páginas que  visitamos se esconde un enorme mercado de información sobre lo que  hacemos on line controlado por sociedades que recopilan datos poco  conocidos pero muy rentables, como BlueKai y Acxiom. Solo Acxiom ha  acumulado una media de 1.500 informaciones, -desde la capacidad de  crédito a los medicamentos comprados on line- sobre cada persona de su  base de datos, que incluye al 96% de los estadounidenses. Y cualquier  sitio web, no sólo Google y Facebook, puede ahora participar en el  banquete.
Según los agentes de "los comportamientos de  mercado", cada clic es una mercancía y cada movimiento de nuestro ratón  puede venderse en unos pocos microsegundos al mejor postor. Como  estrategia de mercado, la fórmula de los gigantes de internet es simple:  cuanta más información personal son capaces de ofrecer, más espacios  publicitarios pueden vender, y más probabilidades de que compremos los  productos que se nos muestran. Es una fórmula que funciona. Amazon vende  miles de millones de dólares intentando prever lo que puede interesar a  los consumidores y volcando los resultados en su tienda virtual. Más  del 60% de las películas descargadas o de los dvd alquilados en Netflix  depende de las hipótesis que el sitio se hace sobre las preferencias de  cada cliente.
Según la directora operativa de Facebook, Sheryl  Sandberg, dentro de tres, o cinco años como máximo, la idea de un sitio  no personalizado parecerá absurda. Uno de los vicepresidentes de Yahoo!,  Tapan Bhat, coincide: "El futuro de la web es la personalización. Hoy  la web habla en primera persona. La red debe ser inteligente y a la  medida de cada usuario". El exadministrador de Google, Eric Schmidt,  declara con entusiasmo: "el producto que siempre he querido crear" es un  código que "imagine lo que voy a escribir". Google instantáneo, que  anticipa lo que queremos buscar mientras escribimos, fue lanzado en el  otoño de 2010, y es sólo el comienzo. Según Schmidt los usuarios quieren  que Google "diga lo que deben hacer después".
Si fuera sólo  una forma de vender publicidad orientada, no sería tan grave. Pero la  personalización no condiciona sólo lo que compramos. Para un porcentaje  creciente de usuarios, los sitios de noticias personalizadas como  Facebook se están convirtiendo en fuentes de información fundamental: el  36% de los estadounidenses menores de 30 años lee las noticias en las  redes sociales. Como dice su fundador, Mark Zuckerberg, Facebook es  quizás la mayor fuente de noticias del mundo (al menos por lo que  respecta a una cierta idea de "noticias"). Pero la personalización no  está condicionando el flujo de la información sólo en Facebook:  actualmente servicios como Yahoo y News e News.me, lanzado por el New  York Times, adaptan las noticias a nuestros intereses y deseos  particulares.
La personalización interviene también en la  selección de los videos que vemos en YouTube y en los blogs, influye en  el correo electrónico que recibimos, sobre potenciales parejas que  encontramos en OkCupid y en los restaurantes que nos recomienda Yelp. La  personalización puede determinar no sólo con quién salimos, sino  también a dónde vamos y qué hablamos. Los algoritmos que gestionan la  publicidad orientada están empezando a administrar nuestras vidas. Como  ha explicado Eric Schmidt, "será muy difícil ver o comprar algo que en  cierto sentido no haya sido hecho a nuestra medida".
El código  de la nueva red es bastante sencillo. Los filtros de nueva generación  vigilan las cosas que nos gustan –basándose en lo que hemos hecho o lo  que les gusta a las personas semejantes a nosotros– y después extrapolan  la información. Son capaces de hacer predicciones, para crear y  perfeccionar constantemente quiénes somos, qué hacemos y lo qué  queremos. Juntos, filtran un universo de información específica para  cada uno de nosotros, una "burbuja de filtros" que altera la manera en  que entramos en contacto con las ideas y la información. De un modo u  otro todos siempre hemos elegido las cosas que nos interesan e ignorado  el resto. Pero la burbuja de filtros introduce tres nuevas dinámicas.
En primer lugar, estamos solos en su interior. Un canal de cable  dedicado a quienes les interesa específicamente, por ejemplo el golf,  tiene otros espectadores que comparten cosas en común. Sin embargo, en  la burbuja estamos solos. En una época en que la información compartida  es la base de experiencias compartidas, la burbuja de filtros es una  fuerza centrífuga que nos divide. En segundo lugar, la burbuja es  invisible. La mayor parte de las personas que consulta fuentes de  noticias de derecha o de izquierda sabe que esa información está  dirigida a quienes tienen una orientación política determinada. Pero  Google no es tan transparente. No nos dice qué piensa o por qué nos  muestra los resultados que vemos.
No sabemos si está haciendo  suposiciones acertadas o no sobre nosotros, ni siquiera si las está  haciendo. Mi amigo, que buscaba noticias acerca de BP, no tiene ni idea  de por qué encontró información acerca de las inversiones, no es un  agente de bolsa. Dado que no hemos elegido los criterios con que los  sitios filtran la información entrante y saliente, es fácil imaginar que  la que nos llega a través de la burbuja es objetiva y neutral. Pero no  es así. De hecho, desde el interior de la burbuja es casi imposible  darse cuenta de cuánta información se ve. Nosotros no decidimos lo que  recibimos, y, sobre todo, no vemos lo que sale.
Finalmente,  nosotros no decidimos entrar en la burbuja. Cuando vemos Fox News o  leemos The New Statesman, ya hemos decidido que filtro utilizar para  interpretar el mundo. Es un proceso activo, y como si nos pusieramos  voluntariamente un par de lentes de colores, sabemos muy bien que las  opiniones de los periodistas condicionan nuestra percepción del mundo.  Pero en el caso de los filtros personalizados no hacemos el mismo tipo  de elección. Vienen a nosotros, y dado que se perfeccionan, será cada  vez más difíciles evitarlos. 
 El fin del espacio público  La  personalización se basa en un acuerdo económico. A cambio del servicio  que ofrecen los filtros, regalamos a las grandes empresas una enorme  cantidad de datos sobre nuestra vida privada. Y estas empresas cada vez  están más dispuestas a usarlos para tomar decisiones. Pero no tenemos  ninguna garantía de que los traten cuidadosamente, y cuando sobre la  base de estos datos se toman decisiones que nos afectan negativamente,  nadie nos lo dice. La burbuja de filtros puede influir sobre nuestra  capacidad de elegir cómo queremos vivir. Según Yochai Benkler, profesor  de derecho en Harvard y estudioso de la nueva economía de la red, para  ser artífices de nuestras vidas debemos ser conscientes de las  alternativas.
Cuando entramos en la burbuja de los filtros,  permitimos a las empresas que la construyen elegir qué alternativas  podemos considerar. Nos ilusionamos con ser dueños de nuestro destino,  pero la personalización puede producir una especie de determinismo de la  información, en que lo que hemos cliqueado en el pasado determina lo  que vamos a ver en el futuro, una historia diseñada para repetirse  indefinidamente. Nos exponemos a permanecer atascados en una versión  estática y cada vez más reducida de nosotros mismos, una especie de  círculo vicioso. También hay consecuencias más amplias. Robert Putnam en  su 
 Capital social y el individualismo,  el libro sobre la decadencia del sentido cívico en América, afronta el  problema del agotamiento del 'capital social', es decir, de los lazos d e  confianza y reciprocidad lleva a las personas a devolverse favores y a  colaborar para resolver problemas comunes. Putnam identifica dos tipos  de capital social: “El espíritu de grupo”, que, por ejemplo, se crea  entre los ex estudiantes de la propia Universidad, y el “sentido de la  comunidad”, que, por ejemplo, se crea cuando personas diversas se  encuentran en una asamblea pública. Este segundo tipo de capital es muy  potente: si lo acumulamos, tenemos más probabilidades de encontrar un  puesto de trabajo o alguien dispuesto a invertir en nuestra empresa,  porque nos permite atender a tantas redes diversas.
Todos  esperabamos que internet fuera una gran fuente de capital de este  segundo tipo. En el apogeo de la burbuja tecnológica hace diez años,  Thomas L. Friedman escribía que internet se convertiría en "una  comunidad de vecinos". Esta idea fue la base de su libro 
 Las raíces del futuro:  "Internet se convertirá en un gran dispositivo con que contará el  sistema de la globalización hasta hacer el mundo cada día más pequeño y  veloz".
Friedman tenía en mente un especie de aldea global en  la que los niños africanos y los hombres de negocios de Nueva York  formarían una sola comunidad. Pero no es eso lo que está pasando.  Nuestros vecinos virtuales se parecen cada vez más a los reales, y  nuestros vecinos reales se parecen cada vez más a nosotros.
Tenemos cada vez más "espíritu de grupo" pero poquísimo "sentido de la  comunidad". Y esto es importante porque del sentido de comunidad nace  nuestra idea de un "espacio público" en el que tratamos de resolver los  problemas que van más allá de nuestros intereses personales. Normalmente  tendemos a reaccionar a una serie de estímulos muy limitados: leemos  antes una noticia sobre sexo, política, violencia, famosos, o que nos  hace reir. Este es el tipo de contenido que entra más fácilmente en la  burbuja de filtros. Es fácil hacer clic en "me gusta" y aumentar la  visibilidad del post de un amigo que ha participado en una maratón o ha  hecho una receta de sopa de cebolla.
Es mucho más difícil hacer  clic en "me gusta" en un artículo titulado "Ha sido el mes más  sangriento de los últimos dos años en Darfur". En un mundo  personalizado, hay pocas probabilidades de que cuestiones importantes,  pero complejas o desagradables, llamen nuestra atención. Todo esto no es  particularmente preocupante si la información que entra y sale de  nuestro universo personal se refiere solo a productos de consumo. Pero  cuando la personalización también incumbe a nuestros pensamientos surgen  otros problemas. La democracia depende de la capacidad de los  ciudadanos para hacer frente a puntos de vista diferentes. Cuando sólo  nos ofrece información que refleja nuestras opiniones, Internet limita  esta confrontación. Aunque si a veces se nos hace cómodo para ver lo que  queremos, en otras ocasiones es importante que no es así.
Como  los viejos guardianes de las puertas de la ciudad, los técnicos que  escriben nuevos códigos tienen el enorme poder de determinar lo que  sabemos del mundo. Pero a diferencia de aquellos guardianes, los de hoy  no se sienten defensores del bien público. No existe el algoritmo de la  ética periodística. Una vez Mark Zuckerberg, el fundador de Facebook,  dijo a sus colegas que para un usuario "una ardilla que muere en su  jardín puede ser más relevante que todas las personas que mueren en  África". En Facebook, la "relevancia" es prácticamente el único criterio  que determina lo que ven los usuarios. Concentrarse en las noticias más  relevantes a nivel personal, como la ardilla muerta, es una gran  estrategia de mercado pero nos deja ver sólo nuestro jardín y no las  personas que sufren, mueren o luchan por la libertad en otros lugares.
No es posible volver al antiguo sistema de los guardianes, y tampoco  sería justgo, pero si ahora son los algoritmos los que toman las  decisiones y determinan lo que vemos, debemos estar seguros de que las  variables de que disponemos van más allá de las estrecha "relevancia"  personal. Deben hacernos ver Afganistán y Libia, no solo Apple y nuestro  cantante favorito. Como consumidores no es difícil determinar lo que  para nosotros es irrelevante o poco interesante. Pero lo que es bueno  para un consumidor no tiene por qué serlo para un ciudadano. No quiere  decirse que lo que aparentemente nos gusta sea lo que realmente  queremos, y mucho menos que sea lo que debemos saber para ser ciudadanos  informados de una comunidad o un país. "Es nuestro deber como  ciudadanos estar informados también sobre las cosas que parecen no  merecer nuestro interés", según el experto en tecnología Clive Thomp. El  crítico Lee Siegel lo dice de otra manera: "Los clientes siempre tienen  razón, las personas no". 
 Lobotomía global  La era de la  personalización está poniendo todas nuestas expectativas en internet.  Los creadores de la red han imaginado algo más grande y más importante  que un sistema mundial para compartir imágenes de nuestro gato. El  manifiesto de Electronic Frontier Foundation al inicio de los años 90,  hablaba de una "cultura de la mente en el ciberespacio", una especie de  metacerebro global. Pero los filtros personalizados cambian las sinapsis  del cerebro. Sin saberlo, nos estamos haciendo una lobotomía global.
Los primeros entusiastas de internet, como el creador de la web Tim  Berners-Lee, esperaban que la red sería una nueva plataforma desde la  cual afrontar juntos los problemas del mundo. Creo que todavía puede  serlo, pero antes debemos mirar entre bastidores, comprender qué fuerzas  están impulsando la dirección actual. Tenemos que desenmascarar el  código y sus responsables, a quienes nos han dado la personalización.
Si "código es ley", como ha declarado el fundador de Creative Commons  Larry Lessig, es importante comprender lo que están intentando hacer los  nuevos legisladores. Debemos saber qué creen los programadores de  Google y Facebook. Debemos entender qué fuerzas sociales y económicas  están detrás de la personalización, cuáles son inevitables y cuáles no. Y  tenemos que pensar qué significa todo esto para la política, la cultura  y nuestro futuro. Las empresas que utilizan los algoritmos deben asumir  esta responsabilidad. Deben dejarnos el control de lo que vemos,  diciéndonos claramente cuándo están personalizando y permitiéndonos  modificar nuestros filtros. Pero también nosotoros debemos hacer nuestra  parte, aprender a "conocer los filtros" para usarlos bien y pedir  contenidos que aumenten nuestros horizontes, incluso cuando sean  desagradables. Es por nuestro interés colectivo que tenemos que  asegurarnos que internet expresa todo su potencial de medio  revolucionario. Pero no podrá hacerlo si permanecemos encerrados en  nuestro mundo online personalizado.