Vivimos en internet, somos datos para miles de algoritmos y las grandes
empresas hacen negocio con ellos. La personalización de los contenidos crea un
entorno ficticio afín a nuestras ideas. Pero hay resistencia. La libertad está
en juego
¡Oh qué maravilla!
¡Cuántas criaturas bellas hay
aquí!
¡Cuán bella es la humanidad!
Oh mundo feliz,
en el que vive gente así.
La Tempestad, Capítulo V
Durante cuatro meses de 1932 Aldous
Huxley escribió Un
mundo feliz, su novela más famosa, una ficción distópica sobre una
sociedad sometida por la ciencia a la satisfacción plena. Aquel cosmos de
cultivos humanos, predestinación y ausencia de libre albedrío se fraguó en una
época en la que los totalitarismos pugnaban por dominar una parte del mundo.
Cerebros condicionados y ayudados por el soma, una droga ideada para curar la
melancolía (“si por desgracia se abriera alguna rendija de tiempo en la sólida
sustancia de sus distracciones, siempre queda el soma: medio gramo para una de
asueto, un gramo para fin de semana, dos gramos para viajar al bello Oriente,
tres para una oscura eternidad en la Luna”), componían la sociedad perfecta con
la que Huxley ironizó contra las tiranías. Aquel mundo feliz era ciencia ficción. Sí. Pero
también apuntaba futuros posibles. La vida digital nos está acercando a algunos
de ellos.
Hace varias semanas se publicó en español The Filter Bubble. What The Internet Is Hiding From You (Penguin), una
investigación de Eli Pariser (Maine, Estados Unidos, 1980) sobre cómo los
grandes sitios de internet en los que buscamos información, nos relacionamos y
nos informamos iniciaron el camino de la personalización de contenidos y, con
él, el de la recopilación de nuestros datos personales. De “cómo la red decide
lo que leemos y lo que pensamos”.
El libro arranca con una fecha, el 4 de
diciembre de 2009. Aquel día, sin apenas difusión, Google cambió su algoritmo
de búsqueda: “Búsquedas personalizadas para todos”, tituló un blog tecnológico.
Hasta entonces, el criterio principal era el del Pagerank —el nombre viene del
de uno de los fundadores de Google, Larry Page—, una serie de fórmulas que
permitían asignar relevancia a los documentos de forma numérica. La pauta de
pertinencia para el buscador era el número de enlaces de otras páginas. Y la
lógica era pensar que todos veíamos los mismos resultados ante la misma
búsqueda.
“El gran buscador se convirtió en millones de buscadores distintos.
empezábamos a encontrar lo que somos según los datos que google conoce de
nosotros”
El algoritmo de Google
y el librero de Amazon
A finales de 2009, Google modificó su
algoritmo para mostrar aquello que cree estamos buscando. En aquel cambio —la
compañía llega a variar su motor más de 500 veces al año, aunque muy pocas veces la transformación es importante— sus
ingenieros introdujeron una serie de indicadores personales (búsquedas
anteriores, lugar de conexión, tipo de navegador…) y el gran buscador se
convirtió en millones de buscadores distintos. Empezábamos a encontrar lo que
somos según los datos que Google conoce de nosotros. Pero, ¿y si buscamos algo
diferente? O, ¿por qué nunca veremos aquello que a priori no nos interesa? El
filtro burbuja —acuñado por Pariser— comenzaba a configurarse.
El funcionamiento es sencillo: si buscas
esto, la próxima vez te daré lo mismo. Si normalmente lees o compartes noticias
de determinados medios, verás estos medios en tus redes. Si lees un libro o ves
una película, la próxima vez tendrás destacado al mismo autor o director, o algunos
similares. Si sueles viajar de Madrid a Londres encontrarás ofertas de vuelos
personalizadas…
También predestinamos y condicionamos.
Decantamos nuestros críos como seres humanos socializados [...] Observen,
crecerán con lo que los psicólogos solían llamar un odio instintivo hacia los
libros y hacia las flores. Reflejos condicionados definitivamente. Estarán a
salvo de la botánica y de los libros para toda su vida.
Un mundo feliz. Capítulo
II.
Los contenidos adaptados de Google, pero
también de Facebook, Apple, Amazon, Netflix o de muchos sitios de noticias
permiten un mundo feliz individual, un caudal inmenso de información que nos
representa, con la que nos sentimos cómodos. En la burbuja de filtros no vemos
aquello que el programa establece que no nos interesa. Tampoco somos
conscientes de que esa información existe, o de que puede que haya algo
importante que nos estemos perdiendo. Y, sin esa otra visión, sin esa
experiencia crítica, el mundo de pronto se hace mucho más pequeño; con la
ficción añadida de creer que tenemos un acceso libre y colosal a lo que ocurre.
— Para lo que está destinado, sí. — Se
encogió de hombros Helmholtz—. Pero su destino, ¡es tan poco trascendente! ¿De
qué sirve que te penetre un artículo sobre un Canto de Comunidad, o la última
mejora en los órganos de perfumes? Además, ¿es posible hacer que las palabras
sean penetrantes como los rayos X cuando se escribe acerca de cosas como éstas?
¿Cabe decir algo acerca de nada? A fin de cuentas, éste es el problema.
Un mundo feliz. Capítulo
VI
El cambio en Google fue, según Pariser,
el inicio de la personalización masiva, pero fue Jezz Bezos con Amazon el
primero que supo explotar la idea de la relevancia. La esencia de su proyecto
se resumía en una frase que el magnate —hoy dueño de The Washington Post y tercer hombre más rico
del mundo según la lista Forbes— repetía: “Quiero devolver la venta de libros
por internet a los tiempos en que uno iba a la librería de toda la vida y el
librero, que te conocía perfectamente, te decía: ‘Sé que te gusta John Irving y
acaba de salir un nuevo escritor que me lo recuerda mucho. Creo que este libro
te va a gustar”.
Desde el principio, Amazon fue una
librería con personalización incorporada. En 1997 vendió el primer millón de
libros. En 2001 consiguió su primer trimestre de beneficio neto. Y en los tres
primeros meses de este año, su cifra de negocio alcanzó los 32.720 millones de
euros, un 22,6% más respecto al mismo periodo de 2016.
— ¿Por qué, en lugar de esto, no les
permite leer Otelo?
— Ya se lo he dicho: es
antiguo. Además, no lo entenderían.
Un
mundo feliz. Capítulo XVI
Acxiom, los datos y el
11S
La ficción utópica de acceso absoluto al
todo tiene otro atractivo añadido: el gratis casi total. No solo tengo lo que
quiero, además lo tengo de forma gratuita o por muy poco. La rentabilidad está
en un elemento que no es evidente pero que podemos intuir, y son nuestros datos
personales. En el negocio de la información personal no solo están las
compañías tecnológicas más reconocibles. Pariser destaca en su libro a Acxiom,
una empresa desconocida para el gran público que controla los datos del 96% de
los hogares estadounidenses y de 700 millones de personas de todo el mundo.
Saben sus nombres, sus direcciones, sus facturas, si toman algún medicamento,
si tienen mascota…
“Acxiom
buscó en sus enormes bases de datos y resultó que sabía más sobre 11 de los 19
secuestradores que el gobierno de estados unidos”
Durante la mayor parte de su vida, Acxiom
ha mantenido un perfil bajo, pero tras el 11S jugó un papel público importante.
Según cuenta Pariser en su libro, el 14 de septiembre de 2001, pocas horas
después de que se hicieran públicos los nombres de los terroristas, el FBI
recibió la llamada de un antiguo funcionario de la Casa Blanca que en ese
momento era directivo de Acxiom. A partir de ahí la empresa buscó en sus
enormes bases de datos y resultó que sabía más sobre 11 de los 19
secuestradores que el Gobierno de Estados Unidos.
Acxiom explica en su web que “proporciona
la Base de Datos —así en mayúscula— a los mejores vendedores del mundo”. Y
añade: “Creemos que los datos son la clave para crear interacciones
significativas a escala entre los consumidores y las marcas que aman”.
En febrero de este año, la compañía, con
sede en Conway, Arkansas, anunció el cese de sus operaciones en España por las
“estrictas leyes sobre protección de datos”. “Ha sido extremadamente difícil
desarrollar y vender nuestras soluciones de una forma comercialmente viable”,
explicó la empresa en un comunicado.
— Mi joven y querido amigo — dijo Mustafá
Mond—, la civilización no tiene ninguna necesidad de nobleza ni de heroísmo.
Ambas cosas son síntomas de ineficacia política. En una sociedad debidamente
organizada como la nuestra, nadie tiene la menor oportunidad de comportarse
noble y heroicamente. Las condiciones deben hacerse del todo inestables antes
de que surja tal oportunidad. Donde hay guerras, donde hay una dualidad de
lealtades, donde hay tentaciones que resistir, objetos de amor por los cuales
luchar o que defender, allá, es evidente, la nobleza y el heroísmo tienen algún
sentido. Pero actualmente no hay guerras. Se toman todas las precauciones
posibles para evitar que cualquiera pueda amar demasiado a otra persona.
Un
mundo feliz. Capítulo XVII
El grafo social
En la primera conferencia mundial
auspiciada por Facebook, celebrada en San Francisco el 24 de mayo de 2007, Mark
Zuckerberg, fundador de la compañía, lanzó la idea del grafo social: el
conjunto de relaciones de cada persona. Facebook no era la primera red social,
pero sí la que antes utilizó un algoritmo de selección de noticias que
recopilaba las actualizaciones de sus usuarios. “Estamos generando más noticias
en un solo día para nuestros 19 millones de usuarios que las que generó
cualquier otro medio de comunicación en toda su existencia”, proclamó
Zuckerberg.
En el Facebook más primitivo, el muro
mostraba todo —o casi— lo que tus amigos compartían en su página. Pero esto fue
pronto incontrolable por el volumen. Así nació un algoritmo basado en tres factores
(afinidad, actualización y tiempo) que permitió acumular y discriminar
información del usuario para que el sistema funcionase. Un ciclo infinito.
Cuantos más datos se tengan, más sofisticados tienen que ser los algoritmos
para organizarlos.
El 27 de junio de este año, Zuckerberg
anunció en un post en Facebook que la comunidad había alcanzando oficialmente
los dos mil millones de personas. “Estamos haciendo progresos conectando el
mundo, y ahora lo vamos a acercar todos juntos. Es un honor estar en este viaje
contigo”. El objetivo de la empresa que había creado trece años antes se estaba
cumpliendo. Facebook ya está en casi todas partes. Su capacidad de censura
también.
— En suma — dijo Mustafá Mond—, usted
reclama el derecho a ser desgraciado.
— Muy bien, de acuerdo — dijo
el Salvaje, en tono de reto—. Reclamo el derecho a ser desgraciado.
— Esto, sin hablar del derecho
a envejecer, a volverse feo e impotente, el derecho a tener sífilis y cáncer,
el derecho a pasar hambre, el derecho a ser piojoso, el derecho a vivir en el
temor constante de lo que pueda ocurrir mañana; el derecho a pillar un tifus;
el derecho a ser atormentado.
Un mundo feliz. Capítulo
XVII
Rompiendo las burbujas
En paralelo a los filtros burbuja ha
nacido una especie de resistencia que empieza a crecer tanto como el enemigo a
batir: desde simples bloqueadores de publicidad a prácticas de hackeo avanzadas.
En el caso de Facebook y otras redes sociales, también existen herramientas
para romper la imposición de los contenidos.
Escape Your Bubble,
desarrollada por el ingeniero neoyorquino Krishna Kaliannan, tiene como
objetivo pinchar la burbuja que Facebook genera según la experiencia política
de cada persona. Funciona gracias a una extensión de Google Chrome que
reemplaza ciertos posts publicitarios
por contenidos políticos de calidad contrarios a la filiación del usuario. En
la herramienta se elige sobre qué partido político se quiere saber más
—republicanos o demócratas— y se indica la postura que se tiene en torno a
cuestiones sociales y económicas, además de la creencia (o no) religiosa. A
partir de ahí, el muro mostrará distintas entradas, identificadas con una banda
rosa y un logo de la herramienta —una especie de recordatorio de que tu filtro
está siendo atravesado— con información que, por la experiencia y
comportamiento, hubiese sido descartada o simplemente ocultada por el
algoritmo.
La
idea, muy simple, no deja de ser paradójica: a través de dos de los principales
sistemas de filtros de Facebook, las extensiones de Google y el sistema de Ads (publicidad),
se rompe el filtro mismo.
Escape Your Bubble no es un caso aislado.
Hay varias herramientas que comienzan a funcionar contra la uniformidad
informativa. Flipfeed, una extensión desarrollada
por el MIT Media Lab, permite que nuestras cuentas de Twitter tomen el feed —las
fuentes, los seguidores o la información seleccionada— de otro usuario y que
aparezca en nuestro perfil como propio. De esta forma, y también de acuerdo a
una clasificación política de los usuarios, podemos ponernos en el lugar —y en
el uso que hace de las redes— de personas alejadas ideológicamente. PolitEcho, que también funciona a través de un pluging de Chrome, ayuda
a reconocer en Facebook los sesgos propios a través de una comparación con
nuestros contactos. Algo así como una herramienta que categoriza y describe
nuestra propia burbuja.
“Los seguidores de Hillary Clinton estaban convencidos de la
victoria de su candidata. no solo porque era lo que deseaban, sino porque su
filtro burbuja se encargó de que esa fuese la ‘realidad’ que veían”
El debate sobre la censura, el control y
la direccionalidad de los contenidos en internet cobró especial relevancia tras
la victoria de Donald Trump, cuando las redes se inundaron de noticias falsas y
complejos entramados de hackeo e
intromisión política. Lo más notorio fue, quizá, el convencimiento acérrimo que
demostraron los seguidores de Hillary Clinton en la victoria de su candidata,
incluso en los minutos inmediatamente previos a que se conociesen los
resultados finales. No solo porque era lo que deseaban, sino porque su filtro
burbuja se encargó de que esa fuese la ‘realidad’ que veían.
A finales de 2015, Natalie Fenton,
activista y profesora de Comunicación en Goldsmiths, University of London, reflexionaba en ese sentido en una entrevista publicada en CTXT: “Lejos de
aumentar la participación política de todos, internet crea guetos políticos de
los que ya están bien informados; afianza las desigualdades que existen offline. Esto
me sucedió durante las elecciones del Reino Unido, donde me dejé seducir por
esta idea de que en la tuitesfera y
en Facebook todo se sentía bien, había un montón de buenos debates, se sentía
cómo la izquierda iba ganando terreno. Pero, por supuesto, todo lo que estaba
haciendo era hablar con mis amigos”.
La censura de Facebook
Recientemente, la plataforma ProPublica
ha revelado unos documentos internos de Facebook donde se recogen las pautas algorítmicas que la red social ha impuesto en sus mecanismos de censura. La función de
esas reglas es, supuestamente, diferenciar los discursos de odio de la libertad
de expresión –política– legítima. Sin embargo, el principal descubrimiento fue
la discriminación a la que somete Facebook a sus usuarios en términos de
protección. Mientras determinados colectivos —como los hombres blancos— son
protegidos de los discursos de odio por la normativa, no ocurre lo mismo con
otros grupos —por ejemplo, los menores negros—.
— ¡Noventa y seis mellizos trabajando en
noventa y seis máquinas idénticas! — La voz del director casi temblaba de
entusiasmo—. Sabemos muy bien adónde vamos. Por primera vez en la historia. —
Citó la divisa planetaria-: Comunidad, Identidad, Estabilidad.
Un mundo feliz. Capítulo
I
Según ProPublica, los documentos filtrados
también sugieren que las normas que impone Facebook tienden a favorecer a
determinadas élites o gobiernos frente al activismo de base o las minorías. En
parte, esto supondría que los criterios de censura se configuran parcialmente
según los intereses comerciales de la compañía, supeditada a la decisión —o
amenaza— de determinados gobiernos de bloquear o no la red en sus territorios.
Una de las reglas que aparece en esos informes –y que Facebook asegura no usar
ya– prohíbe defender la violencia como forma de resistencia ante un Estado
reconocido internacionalmente. Esto afectaría a Palestina, Crimea o el Sahara
Occidental.
El caso más llamativo en este sentido fuepublicado por TheWall Street Journalelaño pasado. Según el diario, la afirmación de Donald Trump de
prohibir la inmigración musulmana al país no fue censurada por orden directa de
Zuckerberg pese al duro debate que suscitó entre los propios empleados de la
compañía, que alegaron que violaba las reglas del sitio sobre el discurso de
odio.
Otro de los textos filtrados a ProPublica
contiene un formulario de formación para que los reguladores de contenido de
Facebook aprendan a aplicar las normas de censura. Ante la pregunta “¿qué grupo
está protegido de los discursos de odio?”, se proponen tres posibilidades:
“Mujeres al volante, niños negros u hombres blancos”. La respuesta correcta es
‘hombres blancos’.
Sexo prohibido
El pasado mes de mayo, el diario
británico The
Guardian publicó una serie de reportajes —Facebook Files—
en los que explicaba de forma detallada las normas internas, los
comportamientos de moderación o la permisividad de la red con ciertos
contenidos sensibles. Era la primera vez que se conocía, por ejemplo, la
política de la compañía sobre contenidos sexuales. De la pornografía al desnudo
en el arte. Uno de los documentos, relativo a las pautas de moderación,
revelaba que en Facebook se puede publicar “quiero follarte”, pero sin ningún
detalle concreto. Una fuente interna lo explicaba así: “Permitimos expresiones
generales de deseo, pero no detalles sexuales explícitos”. La empresa asegura
que le es “difícil establecer una línea entre contenido sexual aceptable e
inaceptable”.
Facebook planea ampliar su equipo de
moderadores a 7.500 personas en todo el mundo, en la que podría ser la mayor
operación de censura de la historia. También la más opaca, ya que la red no
publica —solo existen filtraciones— las reglas que sigue para aplicar su filtro
burbuja.
Noticias uniformadas y
cámaras de eco
Algunos medios de comunicación no están
siendo ajenos a los efectos peligrosos de la personalización de los contenidos.
El periodismo como servicio público, la información importante, jerarquizada,
se oscurece en un mundo de noticias servidas a la carta. El 12 de junio de este
año, Chris Evans, director del Daily Telegraph, y Katharine Viner, redactora
jefa del Guardian,
firmaron un artículo conjunto que publicaron ambos medios. “Desde lados
opuestos del espectro político”, los periódicos quisieron alertar sobre el
papel de la prensa y los enemigos a los que se enfrenta. El fragmento final de
la columna expresa lo siguiente:
“Nuevas tendencias preocupantes están
empezando a afectar a la conciencia pública —noticias falsas, algoritmos
sesgados, cámaras de eco (ampliación por transmisión y repetición en un sistema
cerrado)—. Los efectos del filtro burbuja pueden aparecer rápidamente a medida
que las experiencias segmentadoras que nos llegan de Facebook y Google solo nos
sirven noticias y puntos de vista con los que estamos de acuerdo. Estas
burbujas pueden llevarnos a estrechar nuestra visión del mundo, en lugar de
buscar noticias y opiniones que nos involucren, ensanchen nuestros puntos de
vista y nos expongan a nuevas ideas. Con este telón de fondo, nunca ha sido tan
importante para la prensa un escrutinio equilibrado, profesional, pero, sobre
todo, duro con los líderes políticos de todas las ramas. Mientras el evento Great Get Together se
está organizando para este fin de semana en memoria de la vida y obra de Jo
Cox, nosotros, los dos editores, no vacilamos al unirnos, aunque sea por un
día, para compartir el sutil sentimiento de George Orwell: “Si la libertad
significa algo, será, sobre todo, el derecho a decirle a la gente aquello que
no quiere oír”.
Internet fue capaz de transformar el
mundo. Abrió una ventana casi infinita a las ideas. Solo hace falta corregir el
rumbo y reivindicar espacios de pensamiento. La humanidad más bella siempre es
la más libre. La tiranía siempre es más ordenada que la libertad.