Cualquier persona del planeta está conectada con otra mediante una cadena de conocidos que no tiene más de seis niveles de separación por término medio. Esta idea, la famosa teoría de los seis grados de separación, es uno de los paradigmas en que se basa un estudio sobre conexiones y navegabilidad en redes complejas publicado esta semana en la edición online de la prestigiosa revista Nature Physics .
El artículo, de título « Navigability of complex networks» , está liderado por Marián Boguñà, investigador Ramón y Cajal del Departamento de Física Fundamental y miembro del Grupo de Investigación Consolidado de Física y Computación en Sistemas Complejos de la UB; Dmitri Krioukov y kc claffy de la Corporative Association for Internet Data Analysis (CAIDA) de la Universidad de California (San Diego, Estados Unidos).
La teoría de los seis grados se inspira en la obra del psicólogo norteamericano Stanley Milgram, en la que demostraba empíricamente que el mundo es realmente muy pequeño cuando se trata de las relaciones sociales. Ésta idea, que hoy día todo el mundo acepta, fue una auténtica novedad en el momento que surgió. En 1929, el escritor húngaro Frigyes Karinthy establecía el primer precedente sobre la filosofía de estos "mundos pequeños" en una corta historia, Cadenas, donde el mundo se llenaba de cadenas de conexión social entre la población mundial.
La principal contribución del trabajo publicado en Nature Physics es establecer el mecanismo general que permita la navegabilidad en cualquier escala en redes complejas -como Internet- y que sea operativo «tanto si la red tiene 1000 nodos como mil millones» explica Marián Boguñà. Inspirándose en modelos reales (redes sociales, redes de conexiones aéreas entre aeropuertos), los investigadores abren ahora nuevas vías para resolver los problemas de escalabilidad de los protocolos de búsqueda de rutas entre las diferentes partes de internet.
"El objetivo final es intentar aplicar la idea de la existencia de estructuras métricas ocultas que hay en las redes reales para poder aplicarlas en la navegación por Internet; es decir, en cada parte del camino, intentar minimizar las distancias en estas estructuras métricas ocultas", explica Boguñà.
Internet, que es una red altamente dinámica formada por otras redes, utiliza un determinado protocolo de comunicación, el BGP ( Border Gateway Protocol ), que intercambia información de enrutamiento entre sistemas autónomos. El sistema resuelve peticiones de servicios de envío de paquetes de información a través de redes de ordenadores. El protocolo tiene que estar completamente actualizado para poder funcionar y además tiene que contener información global de la topología.
Todo ello exige un proceso de transmisión de información que resulta muy costoso, y si la red crece mucho, el protocolo tarda mucho en actualizarse. "Todos hemos notado a menudo que la red no va bien, va lenta, y los ficheros que enviamos o pedimos no encuentran su destino. Algunas partes de la red no son accesibles porque el protocolo es incapaz de encontrar el camino. Internet también tiene materia oscura. El sistema, en resumidas cuentas, no puede crecer más porque no tiene más capacidad para encontrar las rutas. Esto quiere decir que si no hacemos cambios en el protocolo actual BGP, Internet quedará colapsado en diez años".
Uno de los principales problemas de la arquitectura de Internet es que debido a la naturaleza cambiante de la red, sus protocolos de enrutamiento no son escalables: si el tamaño del sistema crece mucho, el rendimiento disminuye. La propuesta del equipo investigador es intentar utilizar en Internet otros protocolos de encaminamiento o de redireccionamiento -de un origen a un destino concreto- donde no sean necesarias estas actualizaciones dinámicas. Este protocolo sería estable y se podría escalar a dimensiones arbitrariamente grandes.
Internet en el espacio
En el artículo, los investigadores ilustran la investigación con el ejemplo de la red de aeropuertos mundiales. "El efecto de distancia afecta claramente a las conexiones entre aeropuertos; si están muy lejos, la probabilidad de conexión es más baja. A pesar de todo, hay otros factores que también influyen directamente en el mapa de conexiones. Las ciudades, es decir, los nodos de la red, son altamente heterogéneas y muy dispares entre sí, cosa que puede relativizar el efecto de la distancia: ciudades muy grandes como Londres y Nueva York están directamente conectadas a pesar de la distancia que las separa, pero difícilmente encontraremos una conexión directa entre el aeropuerto de Reus y el de Indianapolis", explica Boguñà.
Si nos fijamos en las redes sociales -en la de los amigos, por ejemplo-, el mecanismo de formación de conexiones también sigue reglas parecidas. Tenemos tendencia a hacer amistad con personas que son similares a nosotros desde un punto de vista social, pero eso no excluye la posibilidad de establecer amistad con gente más «alejada», entre personas populares o muy amigables, por ejemplo.
El descubrimiento de este nuevo mecanismo podría tener aplicaciones prácticas en un amplio abanico de áreas donde las redes se utilizan como modelos de sistemas complejos. "Una de las primeras ventajas -explica Boguñà- es que podríamos evitar este colapso que todo el mundo prevé para Internet. El mecanismo de encaminamiento que definimos al artículo es muy robusto: no hay proceso de actualización, y si se interrumpe alguna ruta, a pesar de todo, el sistema tiene la capacidad de encontrar rutas alternativas".
Los nodos, en este caso, no necesitan información global del sistema, no se utiliza la información topológica y, por lo tanto, los cambios no afectan a la eficiencia del protocolo. Para los autores, este nuevo modelo beneficiaría al máximo una red de la complejidad de internet, en donde se dan máximos de hasta siete mil cambios por segundo en su estructura.
Solo para medios:
Si eres periodista y quieres el contacto con los investigadores, regístrate en SINC como periodista.