El efecto Google: consecuencia de su funcionamiento para la participación y democracia en Internet

Ya tenemos una buena idea de cómo funciona Google. Analicemos ahora las implicaciones que su funcionamiento tiene en los debates en curso sobre Internet, participación y democracia.

Cuando hablamos de conceptos como democracia digital, la sociedad 2.0, o ciberactivismo, con frecuencia discutimos si realmente Internet refuerza la participación, redistribuye el poder a favor de los ciudadanos y permite profundizar en la democracia, o todo lo contrario.

Dentro de ese contexto, una vez que hemos desgranado cómo Google clasifica las distintas páginas web en función de cada búsqueda concreta, se abre ante nosotros un fascinante debate.

¿Promueven los resultados de Google la participación y la democracia ciudadana?  O por el contrario, ¿Refuerzan a los grandes centros de poder existentes?

Recordemos que en 2005, Joe Trippi, un dirigente político estadounidense, responsable del éxito de su entonces candidato Howard Dean en Internet, dijo que “Internet es la innovación más democratizadora que hemos visto nunca, por encima incluso de la imprenta” –narrado en la página 235 de su obra “The revolution will not be televised: democracy, the Internet and the overthrow of everything”.

Varios autores, entre ellos el mismo Trippi –en este artículo– se apresuraron a vincular Internet con los movimientos ciudadanos que en 2011 derrocaron los regímenes dictatoriales de Túnez, Egipto y Libia, provocaron la renuncia del primer ministro de Yemen y sacudieron con fuerza los regímenes de Siria y muchos otros países árabes. En este caso, la asociación más inmediata fue con las redes sociales, a las que se atribuye el nexo más directo con estos movimientos ciudadanos.

De la misma forma, los orígenes del movimiento del 15M en España, y sus émulos en muchos otros países, parecen estrechamente vinculados con la red. Esa es la opinión de numerosos expertos como Ismael Peña, entrevistado al respecto, quien no duda en argüir que el movimiento no habría existido sin las redes sociales o algunos de los organizadores del 15M en Sevilla, que afirman que “El 15M nació en la red y allí permanecerá siempre”.

Lo mismo opina y afirma categóricamente la investigadora de medios en Internet, Eva María Ferreras Rodríguez en las conclusiones de su artículo sobre el 15M y Twitter: “podemos decir que el movimiento 15-M nació y se gestó en Internet, por tanto puede ser tomado como una muestra de ciberactivismo” (Ferreras, 2011, El Movimiento 15-M y su evolución en Twitter, Cuadernos de Comunicación e Innovación Telos, número 89, disponible aquí.

Por tanto hay un consenso en atribuir a algunas parcelas de Internet, en especial a las redes sociales, alguna o mucha importancia en los movimientos ciudadanos.

Con independencia de si este papel atribuido a las redes sociales es real o exagerado, debemos preguntarnos, ¿Qué papel juegan los buscadores, en concreto Google, que es el hegemónico?

Del lado de los optimistas, un autor como Steven Johnson defiende con vehemencia en su obra Emergence, the connected lives of ants, brains, cities and software (2002) que Internet, y los buscadores, funcionan siguiendo el proceso que el denomina “emergence” –emersión, emergencia o acción de emerger. En sus palabras: “como la lógica dialéctica del siglo diecinueve, la visión emergente del mundo pertenece a nuestro tiempo, moldeando nuestros hábitos y percepción del mismo” (Johnson, 2002: 66).

Esta dinámica emergente, aplicada a Internet, significa que: “el papel de Internet en todo esto no tendrá que ver con su capacidad para distribuir imágenes de video de alta calidad o sonidos espectaculares. En vez de eso, Internet aportará los meta-datos que permiten a estas estructuras organizarse. Será el almacén central y el mercado de todos nuestros patrones mediados de comportamiento. Y esos patrones, en lugar de estar restringidos a Madison Avenue y TRW, estarán al alcance de los consumidores, quienes podrán crear mapas comunales de todos los datos y el entretenimiento disponibles en Internet” (Johnson, 2002: 220).

La “emersión” o “emergencia” es un sistema descentralizado, que funciona desde la base, de abajo hacia arriba. En este sentido, Google, según Johnson, se limita a permitir que emerjan las opiniones y decisiones de los usuarios, que son quienes enlazan, y la parte más importante del sistema, de la misma manera que lo son las hormigas en una colonia, mientras que el buscador ejerce de “hormiga reina”, quien según Johnson tiene un papel secundario –como explica en su capítulo “el mito de la hormiga reina”.

Otros no son tan optimistas. En opinión de Matthew Hindman, en su obra The Myth of Digital Democracy, 2009, –el Mito de la Democracia Digital–,para entender el peso de los distintos actores en Internet hay que analizar su estructura de enlaces o hipervínculos. Esta estructura sigue leyes estadísticas exponenciales, que tienden a la concentración, de forma que unos pocos sitios web terminan acaparando la inmensa mayoría de los enlaces y tráfico. Esta tendencia, además, se refuerza a sí misma, en un círculo virtuoso –o vicioso, según pensemos que el proceso es positivo o negativo. En este contexto, los buscadores en general, y Google en particular, estarían reforzando esta tendencia.

Ya antes que Hindman, Lessing había postulado, en su obra The Future of Ideas, 2001, que Internet está formado por tres capas, y que su arquitectura es cambiante, por lo que los esfuerzos de intereses comerciales o de poder por cambiarla podrían alterar su naturaleza abierta.

Y tanto Barabási y Albert, en su libro Emergence of Scaling in Random Network (1999) como Kumar en Trawling the Web for Emerging Cyber-Communities, (1999), advierten que la distribución de los enlaces en Internet no es igualitaria, ni mucho menos, sino que se concentra de forma semejante o incuso superior a la riqueza de las personas, de la misma manera que otros autores anteriores habían demostrado que esa concentración se da en campos tan diversos como el tamaño de las empresas, la economía (Krugman en Complex Landscapes in Economic Geography, 1994) o el número de contactos sexuales (Liljeros enThe Web of Human Sexual Contacts, 2001).

La realidad es que unos cuantos sitios web enormes reciben un elevadísismo número de enlaces. Hindman arguye que esta distribución afecta los resultados de búsquedas en Google, además del tráfico. En sus propias palabras “En estos datos del estudio, el número de enlaces que recibe un sitio web y las visitas a ese sitio web tienen una elevada correlación, de 0,704 (el máximo sería de 1). Por tanto, el número de enlaces que van a un sitio web pueden precedir su volumen de tráfico (Hindman, 2009: 44).

Hindman y sus colaboradores no se quedan ahí. Desarrollan la teoría que ellos denominan “Googlearquía” o Googlearchy en inglés. Esta teoría defiende que “el número de enlaces hacia un sitio web es la parte más importante para determinar su visibilidad en Internet. Los sitios web que reciben más enlaces, reciben, ceteris paribus, más tráfico. En segundo lugar, podemos concluir que el dominio de un nicho o segmento es una ley general de Internet. En cada grupo o temática de Internet, hay un sitio web que recibe la mayoría de los enlaces y el tráfico. Finalmente, esta Googlearquía, se alimenta a sí misma, de forma que se refuerza y perpetúa en el tiempo” (Hindman, 2009: 55).

En otras palabras, los enlaces están concentrados en Internet, lo que hace que los sitios web que más enlaces reciben dominen los resultados de búsquedas, consigan más visibilidad y más enlaces. En ese contexto, Google reforzaría el dominio de los sitios web más potentes, puesto que da visibilidad a las páginas y sitios web que han recibido más enlaces.

En la misma línea argumental se habían pronunciado años antes Cho y Roy, en su obra Impact of Search Engines on page Popularity (2004) o impacto de los buscadores en la popularidad de una página web, donde arguían que los buscadores contribuían a la concentración de tráfico y poder en unos pocos sitios web.

Frente a estas teorías, un autor como Fortunato en The Egalitarian Effect of Search Engines (2006) –el efecto igualitario de los buscadores– postula exactamente lo contrario. Según Fortunato, los buscadores contribuyen a paliar las desigualdades de Internet, dispersan el tráfico y consiguen que se concentre menos de lo que se concentraría sin buscadores.

Otro autor del lado crítico es Alexander Havalais, quien en su libro Search Engine Society (2009) arguye que los buscadores crean ganadores y perdedores en Internet, aumentan la desigualdad y concentran el poder. En sus palabras “las clasificaciones de resultados de búsquedas existen, porque hay demanda para ellas. Sin embargo, esas clasificaciones reflejan intrínsecamente el statu quo, y puede que no sean de utilidad pública. El concepto de relevancia es enteramente subjetivo. (Halavais 2009:103).

Por otro lado, Halavais está particularmente preocupado con el efecto cultural homogeneizante de buscadores estadounidenses como Google, que, según él, tienden a favorecer resultados de sitios web estadounidenses, puesto que son considerados de más “autoridad” por el buscador. Esta última crítica podría en teoría matizarse porque Google ha desarrollado hábilmente versiones nacionales de su buscador, que promueven –supuestamente- contenidos nacionales. Además el idioma es fundamental para los resultados de búsquedas de Google, que son en español, por ejemplo, para búsquedas en español. Sin embargo, como hemos visto al analizar las “páginas web” ganadoras, esta crítica tiene al menos en parte validez, puesto que Google.es favorece las páginas alojadas en sitios web estadounidenses como www.wordreference.com, que cuando están en español obtienen buenas posiciones en los resultados para palabras en españolas en Google.es. Como ya hemos indicado en las conclusiones, todo indica que sí existe un sesgo a favor de sitios web estadounidenses, siempre que contengan páginas en español.

Por su parte, el autor Gideon Haigh arguye en su ensayo Information idol, how Google is making us stupid (2006) que Google entontece a fuer de cómodo, generando complacencia, al darnos un servicio fácil y rápido, del que podemos depender.

El debate is intenso y apasionante. ¿Es el sistema construido por Google una de las “técnicas autoritarias” definidas por Lewis Mumford en 1964? O por el contrario, ¿Es el buscador hegemónico una fuerza que democratiza Internet, que aumenta el número de “gente con voz”?

Selección, filtros e información

El concepto de “Gatekeeper” o en español “guardabarreras” o “portero” procede de la Teoría de Campo que en Psicología Social elaboró Kurt Lewin –en sus estudios de los años 40 del siglo pasado sobre las dinámicas interactivas en los grupos sociales. La Teoría General de la Información (TGI) ha dado un perfil propio a este concepto.
Lewin alegaba que en el proceso informativo o secuencia de una información a través de los canales comunicativos en un grupo, el lapso o el bloqueo de la unidad a través del canal dependen en gran medida de lo que sucede en la zona de filtro.
Las zonas de filtro son controladas por sistemas objetivos de reglas o bien por “gatekeepers” son los que tienen el poder de decidir si dejar pasar o no la información.

Estas teorías se han aplicado a la selección de noticias de prensa –la mayoría de los comunicados de agencia son eliminados–, entre otros campos. Reconocidos expertos en teoría de la información, como el catedrático Felicísimo Valbuena de la Fuente han analizado el concepto y su aplicación a la Teoría General de la Información.

Citando al profesor Valbuena, en su obra Teoría General de la Información: “El poder de “aproximar o separar”, el más específicamente humano, adopta en TGI la forma de “otorgar cobertura o no otorgarla” (Valbuena, 1997: 124)

Pues bien, en estos albores del Siglo XXI, podemos asumir que Google, tanto en su buscador generíco de páginas web, como en su buscador especifico de noticias –Google News– ejerce funciones de “portero” de la información. Un “gatekeeper” sistémico, que cumple a rajatabla –robóticamente– las normas de su propio algoritmo.

Y a la luz de esta investigación, podemos deducir algunas de esas normas y lo que implican para la participación y la democracia.

El estudio nos muestra que, al menos algunas de las normas del filtro sistémico de Google podrían no favorecen necesariamente la participación o la democracia y a lo peor, quizás incluso fomentan el statu quo y los poderes establecidos.

Veamos algunos de los criterios que hemos verificado a lo largo del estudio.

Edad del sitio web

Como hemos visto, la edad media de los sitios web que alojan a las páginas ganadoras de nuestro estudio es de más de 8 años.

Podemos decir, en rigor, que Google tiende a la “gerontocracia”. Su algoritmo tiene un sesgo sistémico a favor de estructuras antiguas, ya que premia las páginas web de sitios web de edad avanzada. Se deduce, por tanto, que penaliza las páginas web alojadas en sitios web recientes, y por ende, penaliza a éstos también.

El filtro de Google, por todo ello, penaliza a aquellos portales o sitios web de poca edad. Como hemos visto, esta característica está relacionada con el hecho de que los “malos” que intentan abusar de los buscadores –llamados “spammers”– crean sitios web nuevos permanentemente, y por tanto Google tiene parte de razón en desconfiar de ellos, pero no por ello deja de tener ese criterio un potencial impacto negativo sobre la democracia o la participación.

Aplicado al mundo comercial, quiere decir que una empresa nueva, innovadora, de servicios de viajes, por ejemplo, parte en desventaja en Google frente a las empresas de viajes ya establecidas, que cuentan con sitios web antiguos. Aplicado a las campañas políticas, por ejemplo, podría significar que un partido político nuevo, que cuenta con un sitio web reciente, tendría una desventaja a la hora de aparecer en resultados de búsquedas sobre temas políticos o electorales.

Otra potencial consecuencia de ese criterio, es que favorece a aquellos que pueden comprar dominios antiguos –ya que éstos se compran y se venden. De esa manera, existe otro sesgo económico, que permite a los pudientes contar con una ventaja en Google al adquirir un dominio antiguo.

Aplicado a Google News, quiere decir que el filtro de noticias de Google favorece a los medios de comunicación ya establecidos
–que cuentan con sitios web antiguos– y penaliza a los nuevos –que tiene sitios web recientes.

Por otro lado, como ya hemos visto, podemos pensar que este criterio favorece a sitios web de Estados Unidos, país donde Internet se desarrolló antes –muchos de los sitios web antiguos son estadounidenses– mientras que perjudica por ejemplo a sitios web franceses –país donde Internet se impuso tardíamente, tras imponerse sobre otras tecnologías semejantes autóctonas.

Páginas indexadas a todo el sitio web

De la misma manera, Google premia a las páginas alojadas en sitios web grandes, que cuentan con un elevado número de páginas indexadas. Hemos verificado que un 66,3% de páginas web en primeras posiciones se alojan en sitios web con más de 100.000 páginas indexadas en Google. Este criterio tiene también su lógica, pero como el anterior, es dudoso que fomente la participación o una mayor democracia. Una empresa, institución o gobierno, tendrá recursos para desarrollar un gran número de páginas que podrán indexarse en Google. Al contrario, una asociación o grupo emergente tendrá muchas más dificultades para lograr generar contenidos e indexar un gran número de páginas.

Enlaces entrantes a todo el sitio web

Otro criterio confirmado es el número de enlaces entrantes a todo el sitio web. Hemos visto que casi el 70% de las páginas web en primera posición están alojadas en sitios web que reciben, al menos, 100.000 enlaces entrantes.

Como los anteriores, los grupos dominantes –de la índole que sean- que consigan generar e indexar un gran número de páginas, partirán con ventaja a la hora de lograr un gran número de enlaces hacia el sitio web en su conjunto porque, como es fácil deducir, cuantas más páginas tengamos, más enlaces totales obtendremos.

Además, aquellos con recursos económicos para ello, podrán adquirir enlaces en un mercado que, aunque penalizado por Google, existe en diversas variantes.

Vemos por tanto que, aunque Google nunca haya reconocido la importancia del sitio web donde se aloja una página web –dice que clasifica páginas webs individuales– éste se revela como fundamental en al menos tres de los criterios más importantes.

A priori, esto no fomenta la participación ni la democracia. Posiblemente todo lo contrario. Sin embargo, es justo traer a colación una posible excepción: la Wikipedia.

Llama la atención al analizar los resultados de las páginas en primera posición el elevado número de páginas web “ganadoras” que pertenecen a la Wikipedia. Como hemos visto anteriormente, son 155 de 359, un sorprendente 43%. Más de 4 de cada 10. Con frecuencia, las páginas web de la Wikipedia logran primeras posiciones cuando la palabra clave es un nombre común o propio –países, ciudades, famosos. Ya hemos visto por qué a Google le gusta tanto la Wikipedia. Se debe al enorme número de páginas indexadas y al ingente número de enlaces entrantes al sitio web en general, además de la avanzada edad del sitio web –el sitio web general, Wikipedia.org tiene una antigüedad de más de 7 años. Por todo ello, estar alojado en la Wikipedia le da a cualquier página web una gran ventaja. Además, las páginas web de la Wikipedia adaptan su etiqueta título a cada definición, cuentan con un elevado número de enlaces internos y salientes. Estas páginas web alojadas en la Wikipedia suelen recibir ellas mismas un elevado número de enlaces entrantes.

A priori, la Wikipedia es un sitio web participativo, donde distintas personas contribuyen y escriben nuevos artículos o editan los ya existentes. Esto es positivo y refuerza la tesis de una Internet abierta y participativa. Sin embargo, debe matizarse, puesto que la palabra final de las modificaciones que pueda realizar un particular a las entradas de la Wikipedia la tiene un escogido número de editores –los wikipedistas– que no son necesariamente objetivos, sino personas de carne y hueso, que tienen y hacen valer sus opiniones –por ejemplo políticas. Es lógico pensar que las personas que más interés tienen en escribir, comentar y moderar artículos políticos tienen sus propias opiniones y sesgos al respecto, y abundan las críticas, por ejemplo en Estados Unidos, que alegan que la Wikipedia tiene un sesgo hacia la izquierda en lo político.

Por otro lado, ¿qué pasaría si un medio de comunicación o una persona compraran la Wikipedia, algo teóricamente posible?

Enlaces entrantes a la página web

Frente a estos tres criterios estructurales, que atañen al sitio web en su conjunto, y que, como hemos visto, favorecen a priori a los sitios web grandes y con recursos, existe un criterio que sí podría, al menos en teoría, aumentar la democracia y la participación en los resultados de búsquedas. Se trata del número de enlaces entrantes que reciben la página web individual. En efecto, este criterio permitiría a un gran número de “jugadores” en Internet enlazar a una página, y a través de todos estos “votos” elevar a la página web hasta las alturas de Google. De esa manera, teóricamente –recordemos que ese era el origen del algoritmo de Google- una página web aclamada por el público podría llegar a emerger o destacar.

Aquí podemos encontrar un instersticio, un hueco democrático y participativo que justifique el optimismo de muchos expertos o supuestos expertos. Cuanto más peso tenga este criterio, más válido será el concepto de Johnson de la “emersión” o “emergencia”, comentado anteriormente.

Sin embargo, observamos que este criterio ha perdido peso. De las páginas web en primera posición que forman el estudio, alrededor del 50% reciben 400 enlaces entrantes o más. Pero la otra mitad recibe menos, y a pesar de ello consigue, gracias a todos los demás criterios, obtener la primera posición. La cautela es obligada.

La media de enlaces entranteshacia cada página web que ocupa la primera posición es de más de ochenta y tres mil -83.243- enlaces entrantes, por lo que es un factor que sigue siendo importante –si bien la media puede llevar a engaño, puesto que hay páginas web que reciben una enorme cantidad de enlaces.

Pero un gran número de páginas web logran la primera posición con escasos enlaces entrantes, por lo que este filtro “democrático” puede compensarse obteniendo puntos en otros criterios.

De hecho, en los casos más extremos, ya hemos visto que hay 27 páginas web que alcanzan la primera posición para 27 palabras clave a pesar de no recibir ningún enlace entrante. La mayoría de esas páginas web están alojadas en el sitio web www.wordreference.com lo cual compensa su ausencia de enlaces, debido a otros factores estructurales del sitio web que mejoran las posiciones de sus páginas. ¿Dónde queda en esos casos la “emersión” de Johnson?

Más bien parece que Google escoge estructuralmente –a través de criterios del sitio web general- cuáles son las páginas web ganadoras.

Si analizamos con este prisma que, como ya hemos visto anteriormente, tres sitios web albergan más de la mitad de las páginas web ganadoras –en primeras posiciones– del estudio, la conclusión al respecto sólo puede ser preocupante.

Finalmente, hay otro factor que incide en los resultados de Google. Se trata de los servicios de consultoria especializada en mejorar las posiciones. Google insiste en decir que no afectan en nada a sus resultados de búsquedas. Nos consta que, una vez más, el buscador no dice toda la verdad.

Atrás

Vota