domingo, 4 de octubre de 2009

Artículo 4 - Dinámicas y Variables que regulan el Funcionamiento de Internet -Módulo TTC

Artículo elegido: La web como ecosistema virtuoso/vicioso - Alejandro Piscitelli

A. Piscitelli desarrolla en este artículo un análisis minucioso sobre algunas cuestiones fundamentales en relación a la dinámica y variables que regulan el funcionamiento de internet y los impactos que esto produce.

Nos dice que si bien el crecimiento de la web es azaroso, esta posee regularidades subyacentes sorprendentes, ya sea por la organización de los links o de los patrones de comportamiento de sus casi mil millones de usuarios. La mecánica estadística concluye que será posible diseñar de manera más eficiente el uso de la red y se podrán comprobar leyes de la forma o de la organización, lo cual permitirá considerar a la web como un ecosistema informacional gigantesco a fin de testear el comportamiento humano y la interacción social, también imaginar nuevos formatos y usos cada vez más inteligentes de recursos tales como los buscadores, optimizando o reinventando las formas actuales.

Se refiere a la web como un nuevo soporte intelectual que terminó explotando en una paleta de nuevas formas expresivas. Esta me pareció una manera muy apropiada para definir como la sociedad se ha visto influida por la convergencia de los recursos tecnológicos y el surgimiento de aplicaciones web. Internet, inexorablemente ha configurado nuevas formas en nuestra cotidianeidad, ya sea en cuanto al acceso a la información, como en cuanto a los nuevos modos comunicacionales y las relaciones reticulares que se establecen.

Destaca que están operando dos principios evolutivos, el primero es que con cada nuevo avance tecnológico se gana mucho y también se pierde bastante. El segundo es que los nuevos medios generalmente recuperan elementos de la comunicación natural (biológica) eclipsados por los medios primitivos anteriores (que extendieron la comunicación sacrificando algunos de sus beneficios naturales, Grusin, & Bolter (2000)).

Para entender esto sugiere investigar la infraestructura que hace posible el nuevo medio, y sobre todo las reglas que regulan su emergencia, crecimiento y expansión/declinación.

Comienza haciendo referencia a los orígenes de Internet, donde menciona a Paul Baran, quien en 1946 recibió del gobierno de USA, el pedido de diseñar un sistema de comunicaciones que fuera capaz de detener un presunto ataque nuclear soviético.
Este científico diseño una propuesta que sugería una estructura de red distribuida en forma de retícula, muy parecida a un sistema de autopistas, con tan alto grado de redundancia, que aún cuando muchos de los nodos fueran borrados del mapa por un ataque, caminos alternativos mantendrían la conexión entre el resto de los nodos sobrevivientes. Esta propuesta finalmente naufragó por oposición de los militares y por resistencia de sectores de la industria telefónica, que ante la idea de Baran de crear un sistema de comunicación digital, sintieron amenazados sus intereses y prácticas monopólicas.

Paradojicamente, con los años internet se desarrollo siguiendo estos lineamientos.Las ideas de Baran serían valoradas casi una década mas tarde cuando ARPA (Advanced Research Project Agency) las desarrollara por su propia cuenta para (re)-descubrir imprevistamente, que solo habían llegado 10 años mas tarde al mismo lugar. Pero entonces todo sería diferente en el escenario internacional y local y lo otrora inviable se demostraría ineluctablemente necesario.
Es así que en tiempos de la guerra fría, en medio del desarrollo de estratégicos proyectos militares, surgió la necesidad de encontrar un protocolo que permitiera interconectar computadoras entre si. Con un gran presupuesto y el redescubrimiento de las principales ideas y enseñanzas de Baran por parte de un grupo de investigadores ingleses, ARPA se puso a trabajar en serio. El packet-switching devendría en el abc de la red y aunque los militares intervendrían poco y nada en su desarrollo, Internet estaba lista para dar sus primeros pasos.

Este recorrido a través de la historia de la red no solo es valioso para conocer los principios que rigieron su surgimiento sino para comprender los intereses que se ponen en juego, los presupuestos que subyacen a su evolución, lo cual nos permitirá adaptarnos mejor al devenir futuro de la misma, poder diseñar nuevos servicios y más eficientes. Para ello el autor sugiere concentrarnos en su topología y tratar de desentrañar los principios de su crecimiento y construcción.
Dice que nadie sabe exactamente qué forma tiene la red, debido a su carácter anárquico, auto-organizado y fundamentalmente local y distribuido que subyace a la evolución de la misma. Cualquiera -cumpliendo un mínimo de requisitos- se "enchufa" a la red. Y si alguien que decidiera cerrarla, lo único que lograría es aislar una porción minúscula de la misma, por que inmediatamente la información se auto-rerutearía y a los efectos prácticos, tal caída seria invisible o en todo caso insignificante, ya que la naturaleza distribuida, descentralizada y localmente aislada de la red la vuelve por un lado prácticamente inmune a cualquier ataque, pero, al mismo tiempo, esto hace que sea tan difícil retratarla y aislarla.
Comenta que cuando Internet se inventó a nadie se le ocurrió jamás que existiría una Internet comercial y mucho menos una red de comunicación universal que tendría millones de usuarios. Menciona al e-mail como el best seller de todas las aplicaciones y a la web como uno de los mejores ejemplos de desastre exitoso, pues es un sistema que fue utilizado entusiastamente por una cantidad impresionante de usuarios, antes de que su diseño o funcionalidad esté estabilizado.
Cita el cambio abrupto que produjo el surgimiento de los weblog (supongo que con esto también se puede incluir el fenómeno web 2.0) piensa que es a causa de fallas estructurales en la concepción y diseño de la web, ya que tal como estaba funcionando, no se adaptaba a la necesidades de los usuarios.
Dice Piscitelli que un grupo de memetistas (entre los cuales se incluye) se han empezado a hacer una pregunta clave: ¿Qué es exactamente lo que hemos inventado? ¿Qué tipo de criatura hemos liberado en el ciberespacio? y ¿En qué puede o nos podemos convertir nosotros a partir de su mediamorfosis y evolución? ¿Hasta qué punto los hábitos de lectura y escritura, que sabemos son constitutivos de nuestra identidad y subjetividad se verán transformados y modificados por su emergencia?
Observa que pareciera que Internet tiene una vida propia ya que exhibe todas las propiedades que son específicas de un sistema complejo evolutivo, la considera mucho más parecida a una célula que a un chip, pues los internetólogos se asemejan cada día mas a los biólogos y a los ecólogos (de la información) que a los físicos y a los matemáticos- que deben lidiar con un sistema increíblemente complejo que nos preexiste y es independiente de nosotros.
A partir del trabajo de los hermanos Faloutsos "On Power-Law Relationship of the Internet Topology" el autor postula que Internet no pertenece a la categoría de las redes aleatorias, sino que merece un lugar destacado en el zoológico de las topologías scale-free, lo cual implica que posee carácter exponencial y autoevolutivo.

Para entender Internet dice que necesitamos tres principios adicionales.
1) Una Conexión Preferencial va a estar dada por el ancho de banda y no por el acceso al router mas cercano, esto significa que acortar las distancia no es lo prioritario. Los nodos mas ricos (porque proveen mas ancho de banda) son los que mas conexiones atraen -confirmando un efecto bola de nieve o una estructura "el ganador se queda con todo" (the-winner-takes-all).
2) Aunque parezca contradictorio con lo dicho en el punto anterior, la distancia también importa. 2 km de fibra óptica son mas caros que 0.5 km....... Por otra parte los nodos no aparecen al azar en los mapas. Hay mas routers donde hay mas demanda de ellos, y la demanda es a su vez una propiedad de quienes quieren usarlos.
3) Por último, la correlación pertinente es aquella que pone en correspondencia la densidad de la población y la densidad de los nodos de Internet. Destaca el autor que la distribución de los routers sobre el territorio de USA conforma un conjunto fractal, esos objetos autosimilares descubiertos por Benoit Mandelbrot en los años 70.

Por lo tanto concluye que para entender la dinámica de la red debemos tener en cuanta estas cuatro dimensiones o variables: reconocimiento, conexión preferencial, dependencia de la distancia y estructura fractal subyacente. Si una de estas dimensiones se desbandara podría destruirse la red, pero increíblemente las cuatro dimensiones interactuan entre si eliminando cualquier inestabilidad y haciendo posible una Red scale-free. A pesar de esto dice que no debemos descartar un eventual colapso, a habido errores que generaron pérdida de información, también proliferan virus y otras intoxicaciones que hacen a la vulnerabilidad de la red.

Se pregunta ¿qué es efectivamente Internet? ¿Podría ser una computadora -aunque mas no fuera en clave metafórica?
Esta idea pudo comprobarse cuando en Agosto del 2001 Albert-Lazlo Barabasi y otros autores trataron el tema de la computación parásita, descubrieron la posibilidad de esclavizar máquinas remotas abriendo así el abanico a una parafernalia de preguntas y problemas computacionales, éticos y legales que ni siquiera hoy están bien planteados y mucho menos resueltos.
Seguramente en un futuro sumamente cercano las computadoras empezarán a intercambiar servicios y esfuerzos sobre la base de una demanda ad hoc. Si hoy los chips funcionan mucho mas rápido que las redes, en el futuro ambas velocidades se equipararán y problemas inverosímilmente complejos se resolverán a manos de una computadora única o de un grupo de investigadores aislado.
Pero si el procesamiento distribuido fuera una norma, una infinidad de recursos actualmente disponibles (las horas, sino semanas o meses que nuestras maquina permanecen conectada al ADSL indolentemente por ejemplo) podrían servir para tamaños y maravillosos fines, sin que nosotros debiéramos enterarnos necesariamente.
Cierra diciendo que las tecnologías van mucho más rápido que la capacidad de investigarlas, analizarlas y sobretodo normativizarlas. En lo personal pienso que si esto es así para los científicos e investigadores, para los usuarios finales es infinitamente más inalcanzable, de todos modos creo que no nos sentimos tan ajenos ya que podemos influir a través de dinámicas que permiten aprovechar y compartir recursos de Inteligencia colectiva, lo cual posibilita la autorregulación de patrones de comportamiento y acercarnos a una manera más eficiente de usar internet.

No hay comentarios:

Publicar un comentario