Categories
Redes de datos SST

Canibalizando el ancho de banda de la red

Como siguiente actividad a través del blog de la asignatura se propone el análisis de la siguiente problemática relativa al ancho de banda de Internet:  

Anteriores crisis en Internet

Internet es un estándar en evolución que ha sufrido múltiples problemas para su crecimiento y continúa haciéndoles frente a día de hoy. El aumento del FTP (File Transfer Protocol) causó el “colapso por congestión” de 1986 debido a que la Internet en aquel momento carecía de un mecanismo funcional que evitase la congestión. Esto fue parcheado en 1987 por Van Jacobson (co-autor de traceroute y tcpdump entre otras) con su algoritmo para evitar la congestión que asignaba de forma equitativa los recursos de la red a las aplicaciones. A pesar de que han aparecido nuevas y más eficientes formas de control de la congestión, el algoritmo de Van Jacobson se ha mantenido durante más de 20 años.A mediados de los 90, el aumento de la navegación web había convertido la “World Wide Web” a la “World Wide Wait” debido a que la primera generación de navegadores web no se había para la utilización de los recursos de forma optimizada hasta el paso de HTTP de la versión 1.0 a la 1.1.

La crisis de hoy en Internet

Hoy nos enfrentamos a un nuevo problema. Las aplicaciones P2P (Peer-to-Peer) están provocando un nuevo colapso por congestión ya que la difusión (broadcast) de video (incluso con las novedades ofrecidas desde la BBC y RTVE) está migrando hacia un modelo de VoD (Video on Demand) a través de Internet. Debido a las lagunas existentes en el estándar TCP, un pequeño porcentaje de usuarios que utilizan P2P están apropiándose de la inmensa mayoría de la capacidad de la red a expensas de todos los demás consumidores. Aplicaciones interactivas como la navegación web o aplicaciones de tiempo real como la voz sobre IP están siendo degradadas innecesariamente no por las operadoras sino por los usuarios de P2P.En Japón, con una de las infraestructuras de acceso de banda ancha a Internet más rápida del mundo, donde muchos hogares tienen acceso a 100 Mbps o incluso 1000 Mbps mediante fibra óptica se enfrentan al mismo colapso inducido por la congestión P2P. Esto ha hecho que su gobierno haya dedicado bastantes recursos durante los últimos dos años para estudiar el tema. Recientemente, el Ministerio japonés de Asuntos Internos y Comunicaciones publicó un estudio que muestra que tan sólo el 1% de usuarios de banda ancha utilizando P2P de Japón contabiliza (en adelante, “canibaliza”) con aproximadamente el 47% del uso de Internet de todo Japón. Por otra parte, sólo el 10% de Japón de usuarios de banda ancha utilizando P2P “canibaliza”, en promedio, el 75% de toda la utilización global de todo Internet.  

Esto sería como si 10 pasajeros de un avión de 100 asientos ocupasen 75 asientos y obligaran a los otros 90 pasajeros a compartir los 25 asientos restantes. Uno de esos 10 pasajeros podría tener hasta 47 asientos, mientras que los otros 9 tendrían hasta 28 escaños.  Es perfectamente aceptable que 10 personas ocupen 75 asientos (equipaje de mano, abrigos, portátiles,…) mientras únicamente haya 25 personas en el avión que se conformen con un único asiento sin embargo es completamente injusto cuando hay 90 pasajeros, que han pagado al igual que los primeros su billete, poder sentarse únicamente en 25 asientos. Habría que decirle a esas 10 personas que utilicen los espacios a sus pies para las bolsas a fin de que otros pasajeros puedan sentarse. Sin embargo, en Internet no es tan fácil para todo el mundo ver lo que realmente pasa, los “caníbales” del ancho de banda gritan “discriminación” y persuaden a la comunidad a retratarse como las víctimas del mal y a pensar que están siendo privados de sus derechos civiles. Si alguien se atreve a decelerar su consumo excesivo de alguna manera, ponen demandas de billones de dólares (y para eso hace falta tener los recursos necesarios). Pero no hay nada neutral o imparcial en lo que estos grupos están pidiendo y no son tan protectores de los derechos de los consumidores como se jactan a sí mismos de ser.

La injusticia del control de congestión TCP

Entonces, ¿cómo puede ser que esta situación de extrema injusticia sea posible cuando el control de congestión TCP supuestamente ha sido justo durante estos 20 años? ¿Por qué no se explica en la carrera? Es porque el algoritmo de Jacobson fue diseñado únicamente para el problema del FTP de la década de los 80, no los problemas de los 90 y más allá. Sólo trata de equilibrar el caudal de cada flujo TCP, sin tener en cuenta cuántos flujos TCP abrir puede la aplicación de un mismo usuario. Aunque el algoritmo de Jacobson funcionó con las primeras aplicaciones de Internet que sólo utilizan un flujo TCP activo a la vez, es totalmente ineficaz para las aplicaciones de hoy.


En 1999, la primera aplicación P2P llamada “Swarmcast” apareció en Internet y comenzó a explotar esta laguna. Cuando una aplicación P2P abre múltiples flujos TCP, cada flujo TCP corre con la misma prioridad que los demás flujos TCP. Esto significa que una persona que utiliza 4 flujos TCP recibe 4 veces más ancho de banda en una red congestionada que una persona que utiliza el flujo TCP normal y único por aplicación. Junto con el hecho de que las aplicaciones P2P funcionan sin parar durante todo el día, mientras que las aplicaciones normales sólo transmiten y reciben datos durante un pequeño porcentaje del tiempo respecto de las 24 horas de un día, es fácil ver cómo sólo el 1% de los usuarios, utilizando P2P, tienen la capacidad de consumir casi la mitad de todos los recursos.

Arreglando la “injusticia de TCP”

Gracias al trabajo de Frank Kelly, de la Universidad de Cambridge, y Bob Briscoe, investigador jefe en BT, el asunto de la “injusticia de TCP” está ahora ante la IETF (Internet Engineering Task Force). Briscoe ha emitido un draft IETF con la declaración del problema y que resuelve las lagunas en TCP. Enlazando con el contenido del blog de la asignatura AIRC, Briscoe también demostró hace un par de años que el afamado Teorema de Metcalfe no es del todo cierto.Por desgracia, introducir cambios fundamentales en las normas a nivel TCP es sumamente difícil y conllevaría mucho tiempo.

Incluso cuando otros mecanismos de control contra la congestión de TCP mejores que el de Van Jacobson como el ECN (Explicit Congestion Notification) se estandarizaron en 2001, todavía no hemos visto ningún despliegue en el mundo real porque no podemos forzar a actualizar cada dispositivo de los miles de millones ya instalados. Ya no estamos en el momento en que unos cuantos miles de administradores del sistema pudieron parchear con el algoritmo de Jacobson los únicamente 30000 nodos de todo Internet allá en 1987.  

En el mundo real, es muy poco probable que un único “seeder” P2P de BitTorrent no sea egoísta respecto al ancho de banda que utiliza. Cualquiera que saturando la subida sin parar y mediante el uso de múltiples flujos TCP está, por definición, “canibalizando” una proporción mucho mayor de ancho de banda que nadie. Incluso si un usuario P2P manualmente restringe su consumo de ancho de banda a una fracción del pico de carga y sólo proporciona “semillas” durante 12 horas al día, la cantidad de recursos utilizados también bloquea cualquier otra aplicación. Como se muestra en el gráfico anterior, sólo la ventaja de la persistencia por sí sola permite a un cliente de BitTorrent disponer de un orden de magnitud mayor en el ancho de banda de subida que cualquier otra aplicación.  

¿Cómo podemos hacer frente a la crisis de forma inmediata?

La realidad es que no podemos esperar un cambio significativo en el protocolo TCP para el futuro previsible, por no hablar de desplegar tal actualización en todo el mundo. La solución debe encontrarse en la red en sí misma, porque no podemos esperar que los usuarios normales parcheen sus computadoras para comportarse más educadamente aunque dicho parche sea aprobado y estandarizado. La red debe aplicar y hacer cumplir la justicia o de lo contrario tenemos un estado de anarquía donde los deseos de unos pocos limitan la mayor parte de la capacidad que pagan todos los usuarios. La primera generación de soluciones utiliza la estrategia de descartar tráfico para neutralizar las cantidades de ancho de banda desproporcionadamente elevadas que consumen las aplicaciones P2P. Esta regulación no es siempre el método más preciso y no se puede utilizar en todas las topologías de red pero es barato de desplegar y utilizar, cuando es eficaz.

Otras soluciones de primera generación como Sandvine, utilizadas por las empresas de cable, ocasionalmente dan falsos positivos pero esos errores se corrigen rápidamente tan pronto como se identifican.El mayor problema con estas soluciones de primera generación es que no pueden identificar a todos los “caníbales” del ancho de banda y pueden ser engañados por las técnicas de ofuscación de protocolos. También es cierto que es mucho menos que ideal forzar una paralización total de un “seeder” de P2P BitTorrent aunque sea sólo durante los minutos congestionados del día en lugar de decelerar su actividad. Sin embargo, ralentizar a un determinado “caníbal” del ancho de banda requiere cambios más drásticos en la infraestructura de red, en contraposición con el mecanismo de Sandvine, que no afecta a la infraestructura de red, que emite resets TCP de vez en cuando para detener la siembra de P2P.

Free Press y la EFF afirman que sería mejor si los propios usuarios controlaran ellos mismos, en forma de incentivos económicos, su acceso a Internet. Pero eso sería mucho más draconiano, ya que los usuarios tendrían que cerrar manualmente sus aplicaciones P2P durante 12 horas al día frente a que automáticamente el proveedor de servicios de Internet reseteara las semillas P2P durante unos pocos minutos a la vez que no se afecta el tráfico de carga y descarga de P2P.La crisis inmediata es aún más problemática para la industria inalámbrica, donde el espectro y el ancho de banda son aún más escasos y la capacidad es compartida entre un mayor número de usuarios que en una red de de cable DOCSIS. Una opción que se utiliza hoy en día es avisar por adelantado a los clientes que las aplicaciones P2P no son compatibles con el servicio.

Los pequeños operadores inalámbricos funcionando en bandas sin licencia en el espectro de 2,4 GHz tiene tan poco espectro (y además compartido) y la capacidad de sus conexiones de interconexión con Internet son tan caros que no pueden permitirse el lujo de soportar la carga de los costes de ancho de banda del paso de contenidos de otras las empresas a través de ellos. No sólo son los costes de ancho de banda a través de ellos en el marco del modelo de distribución P2P, los costes son amplificados por un orden de magnitud, porque el ancho de banda en las zonas rurales cuesta mucho más que el ancho de banda concentrado en los “datacenters”. Estos pequeños proveedores de servicios de Internet inalámbrica son muchas veces los únicos proveedores de servicios de Internet en esas zonas debido a que las grandes empresas no quieren dar serviciio a esas zonas menos lucrativas.

A medida que la tecnología madura y la gestión de la red se vuelve más sofisticada, las empresas que son más susceptibles de sufrir congestión por P2P (las que utilizan medios compartidos de transmisión como cable coaxial o inalámbricos) se están comprometiendo a implementar nuevas tecnologías agnósticas de protocolos y hacer cumplir la equidad de ancho de banda en tiempo real y por usuario. Estas nuevas tecnologías evitan falsos positivos o falsos negativos y lo que es más importante, no se les puede engañar con técnicas de ofuscación por protocolo porque sólo les basta con fijarse en los patrones de uso de ancho de banda. Así responden a los “caníbales” del ancho de banda desacelerando sus conexiones en lugar de reseteando sus conexiones TCP.

El CTO de Comcast, Tony Werner, explicó que cualquier enlace congestionado en su red consta de un 2% de los usuarios “canibalizando” aproximadamente la mitad de la capacidad total a expensas de todos los demás y esto es coherente con los datos del gobierno de Japón. La nueva tecnología que Comcast está experimentando sobre la aceleración por prioridades hace que ese 2% puedan utilizar hasta aproximadamente el 25% de todos los recursos y explican que eso sería suficiente para aliviar la congestión de todos los demás. Cuando la red no está congestionada, ese 2% de usuarios pueden reanudar sus aplicaciones P2P tanto como les plazca. BitTorrent Corporation sabe que el modelo de acceso a Internet medido mediante planes de servicios promovido por Free Press daña severamente el uso de su aplicación y su modelo de negocio y ésta es la razón por la que que están trabajando junto a los proveedores de servicios de Internet. BitTorrent empezará a etiquetar claramente su propio tráfico P2P en lugar de ocultar sus cabeceras de protocolo como la mayoría de los clientes P2P para que los operadores de red puedan gestionarles adecuadamente. BitTorrent también está trabajando estrechamente con el grupo de trabajo P4P encargado de formular criterios de selección a los clientes P2P más eficiente según la cercanía a sus pares en lugar de al azar con el objetivo de reducir al mínimo la carga en la red. Por último, KK BitTorrent, la filial de BitTorrent en el mercado japonés, fue parte de un reciente grupo de trabajo de proveedores de servicios de Internet y desarrolladores de aplicaciones en Japón que ha desarrollado una guía de “mejores prácticas” para la configuración del reconocimiento de tráfico frente a la mera adición de la capacidad de la red ya que ha quedado demostrado que no es la forma de corregir un problema como éste surgido a partir de un tipo de aplicación diseñada para consumir toda la capacidad disponible en la red.

¿Cómo definir lo que es una “razonable gestión de la red”?

La “no-gestión” de la red es seguramente la peor forma de gestionar una red, ya que permite un 10% de los usuarios puedan utilizar el ancho de banda de forma que el 90% de los usuarios se quedan únicamente con el 25% de los recursos.

¿Qué importa si se trata de una pequeña minoría de usuarios los que realizan la mencionada “canibalización” o una empresa?

¿No es acaso mayor la cantidad de daño que están perpetrando a un ingente número de abonados?

Free Press sostiene que un acceso a Internet contabilizado pero agnóstico por protocolo por usuario, o la “no-gestión de la red” (aunque reseteando paquetes al azar), serían mejores que la regulación de protocolos que emplean los métodos de priorización mediante resets TCP. Si bien todos podemos estar de acuerdo en que debemos avanzar en el modelo de gestión de red agnóstico por protocolo por usuario se base en la equidad y sería perjudicial para la inmensa mayoría de los consumidores si insistimos en su perfección de inmediato prohibiendo hoy algo que sería en su mayor parte justo y razonable para la mayoría. El mercado ya se está moviendo hacia una nueva red con técnicas de gestión avanzadas y debemos darle la oportunidad de madurar.
  

La gestión de la red asegura una convivencia armoniosa

Como ha demostrado la experiencia con la banda ancha en Japón, nunca vamos a tener suficiente ancho de banda por lo que no es ésta la forma de salir de la congestión. La gestión de la red puede garantizar una convivencia armoniosa, donde las aplicaciones P2P y las tradicionales e incluso las interactivas y en tiempo real pueden obtener lo que precisan. Con demasiada frecuencia, los defensores (habitualmente no-técnicos) de la neutralidad de red confunden el rendimiento de la red con la prioridad en la red cuando en realidad no tienen nada que ver unos con otros.

Las aplicaciones P2P siempre consumen la mayor parte del volumen de tráfico, sin embargo pueden tener todo el volumen del mundo, incluso aunque tengan la menor prioridad. Las aplicaciones interactivas y/o en tiempo real fundamentalmente tienen un bajo volumen de requisitos y no hay razón por la que no deberían tener la máxima prioridad. No hay ninguna diferencia para una aplicación P2P si envían en una ráfaga de mayor prioridad paquetes interactivos o en tiempo real ya que no por ello van a conseguir llegar antes. Las aplicaciones interactivas y/o en tiempo real sólo precisan una pequeña cantidad fija de datos para transportar por lo que la cantidad de datos que deben desplazar las grandes transferencias de archivos P2P se mantiene constante independientemente de la prioridad otorgada a las cargas útiles más pequeñas.

Las transferencias de archivos P2P seguirán terminando en la misma cantidad de tiempo tanto si iba a tardar una hora o un día, sin embargo tener mayor prioridad diferencia completamente a la aplicación interactiva y/o en tiempo real porque un ser humano está a la espera de una respuesta inmediata y la voz o las aplicaciones de juegos no pueden tolerar que los retrasos sean algo más que una décima de segundo.Por lo tanto, con la gestión de la red, las aplicaciones en segundo plano como P2P pueden obtener todo el volumen de tráfico que precisan en el mismo momento oportuno sin necesidad de imponer medidas draconianas de precios.

Las aplicaciones interactivas y/o en tiempo real obtienen la prioridad necesaria a fin de que no verse “ahogadas” por las aplicaciones P2P, pero sin la gestión de la red, independientemente de cuánta capacidad inyectemos en el problema, las aplicaciones P2P no funcionarán mucho más rápido sino que ahogarán a las aplicaciones interactivas y/o en tiempo real de Internet.

Conclusión

La industria de la gestión de redes está haciendo un gran esfuerzo para mejorar la gestión del tráfico de red. La industria se enfrenta a una dura colina hasta hasta conseguir educar a los consumidores sobre los servicios que ofrecen, sus limitaciones y sus condiciones de uso, porque no todos somos ingenieros dedicados a las redes de telecomunicaciones. Quizás el peor efecto secundario de la actual controversia sobre la gestión de P2P es el gran número de falsas y engañosas noticias acerca de la ingeniería de red que se han convertido en parte del debate público. Debemos ser especialmente conscientes de la necesaria labor de educación del gran público hacia una verdadera comprensión de Internet y sus propiedades únicas en comparación con la red telefónica tradicional.

72 replies on “Canibalizando el ancho de banda de la red”

Puntos: 2

Después de haber leído esta entrada empecé a pensar que más que regular el tráfico en la red una solución seria la tarificación dependiendo del consumo de recursos de la misma. En esta noticia se cree que el mercado va a tender a eso para solucionar el problema.

http://www.eltiempo.com/opinion/columnistas/guillermosantoscaldern/ARTICULO-WEB-NOTA_INTERIOR-4110913.html

Si además se pudiera clasificar el origen del consumo, es decir, saber que aplicación esta requiriendo el ancho de banda, los operadores lo podrían utilizar para la facturación.

Si los usuarios cada vez pueden contratar anchos de banda más elevados, es lógico pensar que el uso que le darán también será más intensivo y el tráfico que generen en la red será muy superior a tener una conexión más lenta.
En cuanto a tarificación dependiendo del consumo, se viene realizando hace tiempo, no se si en España pero tengo contancia de que en otros paises sí.
Ahora mismo podemos ver ofertas de ADSL más baratas, tarificando por volumen de datos:
http://www.telefonicaonline.com/on/onTOFichaProducto/0,,v_segmento%2BAHOG%2Bv_idioma%2Bes%2Bv_segest%2BAHOG%2Bv_pagina%2BLI2%2Bv_producto%2B42620%2BdsCatPrimerNivel%2BINTERNET,00.html
http://acceso.ya.com/Llamadas24h_ADSLporDescarga/1mbxdesc/
Pero parece que el enfoque que tienen no es para evitar la congestión de la red, sino más bien para usuarios que hagan poco uso de Internet, únicamente para navegar de vez en cuando.
En cuanto a facturar dependiendo del origen del consumo, como comenta lmlm3, está bien, pero cómo lo ofertarían? “Utiliza tu ADSL para BitTorrent y Emule por sólo 10€ más al mes”. Antes que eso, supongo que bloquearían este tipo de consumo para todos.
Donde también he leído que se empieza a saturar la red, es en el acceso a través de móviles. Gracias a tarifas planas ofrecidas por los operadores, como por ejemplo máxmo 1,2€/dia de Yoigo, determinados usuarios le dan un uso para el que no está pensado, y utilizan intercambio p2p. Con esto se consigue que los operadores tomen medidas, filtrando tráfico etc… perjudicando a otros usuarios que igual dejan de poder utilizar determinados servicios.
Puntos: 2

Buscando en internet sobre el tema, he encontrado unas direcciones que me han llamado la atención. En las cuales se comenta que según un estudio en 2010 nos podríamos quedar sin red, la Web podría colapsarse. Vamos que nos quedan dos años de disfrutar.
También un dato curioso es que paginas como youtube consumió tanto ancho de banda como toda la red en 2000.
Bueno, comentan varias cosas más, pero aquí van los links

http://www.baquia.com/noticias.php?id=13024
http://barrapunto.com/articles/08/03/23/1429243.shtml

Puntos: 0,5 2

Primero intenté buscar en internet lo que era realmente una aplicación P2P para ver que soluciones puede tener el problema presentado arriba con el uso de dichas aplicaciones. Encontré un sitio en donde está bastante bien explicado :

http://www.internautas.org/html/3342.html

Como se explica en este sitio, el mayor problema viene del hecho de que los programas usados para hacer intercambios P2P realizan sus operaciones a nivel de aplicación y no a nivel de red, de manera que crean un entramado de relaciones superpuestas a la red IP, lo que no permite un control seguro de la banda.

De ahi han surgidos algunas nuevas aplicaciones descentralizadas (o residiendo en un servidor de la red), permitiendo que si un usuario está bajando un fichero, el que sea, si se conecta otro usuario para bajar el mismo fichero se compartirá el fichero o las partes ya descargadas. Un ejemplo de ese tipo de aplicación que he encontrado en Internet, MLDonkey :

http://www.isospain.net/index.php?/archives/2008/01/C2.html

Puntos : 1 2

Vaya, volveremos otra vez a las antiguas redes de “paga lo que consumas” pero con mas velocidad?

Parece que los programas P2P vuelven a ser “el principal problema de Internet”. Por lo que se ve, el problema viene de la propia definición del protocolo TCP. Hoy en dia parece que las ofertas de los proveedores de Internet son cada vez mas “atractivas” y nos bombardean continuamente con velocidades mas y mas altas, sin embargo cuando conectas tus programas P2P para “rentabilizar” estas velocidades, y ojo que en ningún momento estoy defendiendo o criticando estas redes, las redes van al traste. Parece que el problema está en que el trafico TCP de los programas P2P colapsa las redes, sin embargo ¿no existe ninguna manera de aplicar algun sistema de Qos (Calidad de servicio) a los propios usuarios?. De la misma manera que en una red de area local (LAN) el tráfico puede ser clasificado y adaptado a una velocidad en concreto, los proveedores de servicios podrían utilizar este sistema para controlar el trafico de sus usuarios atendiendo a su dirección IP, MAC, etc… y limitar el tráfico generado según su perfil de usuario o la congestión de la red.

Puntos: 0,5

La solucion podria pasar por lo que yo estoy sufriendo con mi conexion de internet. Es decir, yo contrate una conexion PreWimax para poder tener telefono e internet en el campo. El sistema que me instalaron resulto ser una antena que se conectaba a una intranet y que era gestionada por la compañia que servia el servicio. Como esta compañia tiene que pagar por adelantado el ancho de banda que usaremos los vecinos decidieron cerrarnos los puertos de todo tipo de aplicaciones P2P, incluso me atreveria a decir que hay un firewall filtrando paquetes. Con todo esto, ademas, todos los vecinos salimos por la misma IP a la red. Lo que dificulta el uso de paginas como MegaUpload y compañia.

En resumidas cuentas, que capen todos los puertos como solucion, y solo dejen los justos y necesarios para navegar, ver correo y usar algun ftp. Si el cliente quiere un puerto abierto para alguna aplicacion que lo pague.

Puntos: 0,5

Se comenta en el mismo texto que existen soluciones, que se estudian soluciones a estos problemas,,, cual es el motivo por el cual no se aplican? Tanto afectaría un cambio radical sobre la gestión de redes? Se mueve mucho dinero?

Hablamos de lo perjudicial del uso del P2P, que entiende una persona cuando oye P2P? Pues le viene a la mente eMule, BitTorrent, Napster… a otros le vendrá “ilegalidad”… No se, sería cuestión de plantearse la existencia de este tipo de red, ya que a mi entender más de la mitad de usuarios de estas tecnologías ha sido para conseguir software de pago, música, películas… es una opinión, posiblemente me equivoco, pero yo cuando voy por la calle de mi ciudad, y me encuentro a una persona (no ingeniero) y me dice tengo la última de “indiana jones”, me la he bajado del bitTorrent o de l’eMule… por eso digo lo de plantearse de su existencia, o por lo menos evitar su uso entre la gente, restringir su uso para estudio, para las redes de empresas que lo necesiten… de esta manera se vería disminuido el numero de usuarios de estas, siendo más fácil el aplicar las soluciones a los problemas de congestión y colapso. Ya que se comenta que fue más fácil parchear con el algoritmo de Jacobson los únicamente 30000 nodos de todo Internet allá en 1987.

Y para la gente de a pie, que si realmente quiere un programa, que lo compre; que si quiere ver una película, que la pague; al igual con la música y libros… Y si lo que busca es gratuito seguro que existen alternativas a la descarga mediante P2P.

Sobre este tipo de problemas me viene a la cabeza el P2M, el peer-2-mail, es igual de perjudicial que el P2P (no en el tema de la legalidad de sus contenidos)? Es que los usuarios de correo electrónico estamos viendo como nuestras cuentas suben y suben,,,, en las cuales es posible meter películas de 4GB, pudiendo descargarlas a velocidades considerables. Realmente el uso de esta tecnología también afecta, porque se esta capando su uso en los correos electrónicos, pero cual es el motivo de que no sea de agrado?

Puntos: 0,5

Al respecto de lo que acaba de preguntar pvmc y ya que esta misma semana Procera Networks ha sacado un Deep Packet Inspector (DPI) que es capaz de analizar tráfico a razón de 80Gbps (40 Gbps en cada sentido):

http://arstechnica.com/news.ars/post/20080512-throttle-5m-p2p-users-in-real-time-with-800000-dpi-monster.html

Además viene el precio del “juguete” en la noticia, si cada operador y para cada enlace STM-256 (40 Gbps en SDH) hay que comprarse uno podemos hacer ya las cuentas…

(Acabo de enviar este mensaje y no aparece, así que lo reenvío. Si sale dos veces, con borrar este basta).
Yo opino que la solución pasa por aplicar técnicas de QoS en los routers de los proveedores y demás redes conectadas a Internet. El protocolo IPv4 nos proporciona un campo (ToS) para marcar paquetes con una cierta prioridad, mientras que IPv6 también ofrece uno llamado DS que permite un QoS signaling más preciso. El problema, obviamente, viene de que las aplicaciones P2P ofuscan el tráfico, pero como se menciona en el artículo, se podrían aplicar fácilmente técnicas de reconocimiento de patrones. Así, el tráfico podría marcarse (para su posterior gestión) empleando comparación por patrones conocidos o incluso aplicando algún tipo de aprendizaje (como el bayesiano) sobre el tráfico de aquellos usuarios que mantienen más conexiones TCP.

En cuanto a la gestión del tráfico, los routers de calidad ya ofrecen técnicas muy adecuadas que no solo descartan paquetes una vez producida la congestión, sino que permiten evitarla. Entre las estrategias, encontramos el Policing y el Shaping. Mientras que el policing descarta directamente los paquetes que superan cierta velocidad, el shaping lleva a cabo un proceso de “goteo” de paquetes que da más rendimiento. Además, el shaping admite el uso de colas de salida basadas en la prioridad QoS de los paquetes, tales como PQ, CQ y WFQ, por lo que se podría garantizar el buen funcionamiento de las comunicaciones que requieren tiempo real.

Por tanto, en mi opinión el principal problema reside en identificar el tráfico P2P. Una vez conseguido esto, para lo cual existen numerosas técnicas de reconocimiento de patrones, el tráfico P2P se podrá regular adecuadamente y seguramente no provocará el canibalismo actual. En cualquier caso, no olvidemos que las redes están para comunicar y compartir datos, por lo que usarlas al máximo sin perjudicar al resto será lo mejor para todos.

Referencias:
http://en.wikipedia.org/wiki/Quality_of_service
http://en.wikipedia.org/wiki/Traffic_shaping
http://en.wikipedia.org/wiki/Weighted_fair_queuing

Puntos: 4

No me aparece el mensaje que he enviado. Si los administradores lo podéis ver, ponedlo por favor. Gracias.

Dada la diversidad de opiniones en este tema, me parece adecuado realizar una síntesis de lo expuesto. De esta forma los lectores que se acaben de unir a la discusión podrán compartir sus opiniones más facilmente.

Las soluciones expuestas por los alumnos hasta ahora al problema que se plantea en esta entrada del blog:

* Tarificación dependiendo del consumo de recursos que un abonado realice de su red. En esta noticia se cree que el mercado va a tender a eso para solucionar el problema.

http://www.eltiempo.com/opinion/columnistas/guillermosantoscaldern/ARTICULO-WEB-NOTA_INTERIOR-4110913.html

En cuanto a tarificación dependiendo del consumo, se viene realizando hace tiempo, pero parece que el enfoque que tienen no es para evitar la congestión de la red, sino más bien para usuarios que hagan poco uso de Internet.

* El problema de la actual gestión que se viene sufriendo viene del hecho de que los programas usados para hacer intercambios P2P realizan sus operaciones a nivel de aplicación y no a nivel de red, de manera que crean un entramado de relaciones superpuestas a la red IP, lo que no permite un control seguro de la banda.

(más información al respecto de los programas P2P: http://www.internautas.org/html/3342.html)

* rlt3 propone una solución comparable a las actuales características de las conexiones PreWimax (ofertadas para poder tener telefono e internet en el campo). Se trata de cerrar todos los puertos, dejando únicamente los más necesarios (navegación, correo electrónico… ). Si el abonado requiere el uso de algún puerto adicional extra, simplemente pagará un dinero (además de la tarifa mensual) para tener dicho puerto abierto para su uso.

* Evitar el uso de programas P2P entre la gente, restringiendo su uso para tareas de estudio, o bien para las redes de empresas que lo necesiten. De esta manera se vería disminuido el numero de usuarios de estas, siendo más fácil el aplicar las soluciones a los problemas de congestión y colapso.

(Opinión personal respecto a esta solución):
[Por todos es ya sabido que se trata de una solución que al margen de poder realizarse por el colapso de internet, se viene intentando aplicar ya desde hace varios años por compañías discográficas y empresas de software que quieren que sus productos sean utilizados únicamente si se ha pagado por ellos.]

* Se propone la solución de aplicar técnicas de reconocimiento de patrones al tráfico de la red para detectar el tráfico P2P, para después aplicarle las técnicas de QoS y gestión de tráfico existentes.

(Opinión personal acerca de esta solución):
[Sin embargo, y desde mi punto de vista, si fuera un tema tan sencillo de tratar, el tema no habría tenido tanta trascendencia. Quizá lo complicado es precisamente encontrar el/los patrón/es a aplicar para realizar una detección correcta.]

Puntos: 5.5

El auge de Internet podría causar un colapso del ancho de banda.

http://www.diariopanorama.com/diario/edicionant/2008/03/23/a-17444.html

Este impactante titular es el que se publica en este articulo del diario Panorama, en el que se cuenta que la saturacion de la red debido a la ingente cantidad de vídeos nuevos, en gran medida debido a Youtube (del que dicen que consumio más en un año el solo que todo Internet en el año 2000), podría provocar una saturación de la red porque la demanda de los usuarios de Internet podría superar la capacidad de la red en muy poco tiempo, en tan solo 3 años.

La solución que parecen proponer es la de llevar la fibra óptica a las casas, pero eso es bastante caro y supone un desembolso importante pero necesario.

Puntos: 4 2

Puntos: 0.5

Si los operadores se dedican a restringir o penalizar el uso masivo de P2P ¿no se estarán cavando su propia tumba? A mi entender es precisamente la posibilidad de hacer uso intensivo de programas como emule, etc lo que hace atractivo para “el pueblo llano” (los no demasiado relacionados con el mundo de la informática, las telecomunicaciones o las nuevas tecnologías) contratar internet en sus casas.

Por esta razón no creo que las operadoras establezcan un canon “pay-per-massive-downloads”. Si lo hacen perderán a la mayoría de clientes.

amof1, yo pienso que complicado debe ser, es cierto, pero no imposible. Quizás los motivos se deban más al coste temporal que supondría aplicar un reconocimiento medianamente inteligente; pues como sabemos, los routers deben ser extremadamente eficientes en el encaminamiento y cualquier factor que incremente el tiempo de proceso no hará otra cosa que contribuir aún más a la congestión. Por ello, el reconocimiento debería hacerse en última instancia mediante un gran soporte hardware que convierta ese procesamiento en una tarea de tiempo casi despreciable.

En cuanto a la viabilidad en sí misma de la técnica de reconocimiento, opino que en efecto es viable, pues por muy ofuscados o cifrados que vayan los paquetes, un protocolo es un protocolo y presenta patrones per se. Además, en algún momento se hará el saludo, intercambio de contraseñas, etc. Por eso, opino que es más probable que este reconocimiento no se esté haciendo por el coste temporal. Así todo, no hay que olvidar que las técnicas de reconocimiento de patrones siguen siendo un campo candente de investigación, ya que no es una cuestión trivial; así que esto influirá también, sin duda, en las decisiones que se hayan tomado al respecto sobre el problema de la congestión.

Puntos: 0,5

Se ha hablado mucho de la posibilidad de que Internet colapse. De ser cierto, los perjuicios serían incalculables.

El posible colapso no tiene nada que ver con los computadores ni los servidores sino con el ancho de banda que actualmente existe para navegar por Internet. Recordemos que el contenido es cada vez más “rico”. Es decir, tiene más videos, audio, gráficas y texto, lo que implica que pesa mucho más. Este peso se mide en bits, que es lo que finalmente se mueve por las autopistas digitales para llegar a los cibernautas.

Se estima que YouTube consumió el año pasado el mismo ancho de banda que todo Internet en el 2000. Una empresa de investigación predijo que el ancho de banda requerido en 2011 superará toda la capacidad ofrecida. También se afirma que 10 por ciento de los usuarios de Internet representa 90 por ciento de tráfico por lo que hacen cuando navegan.

El contenido crece, los usuarios y las conexiones a Internet aumentan en forma incalculable. Por eso, estas autopistas se están quedando pequeñas. O sea, la oferta está siendo superada por la demanda.

Muchos analistas sostienen que no es que Internet vaya a apagarse o a colapsar, sino que los tiempos de espera por el contenido solicitado van a aumentar, hasta hacer la navegación muy aburrida.

Y aunque las tecnologías para administrar esta congestión en la red también están siendo investigadas y trabajadas, las empresas prestadoras del servicio de conexiones a Internet piensan tomar medidas tarifarias para atacar el problema. Para aplicar esto es necesario poder reconocer los diferentes tipos de tráfico que circulan por Internet, porque no todos congestionan la red en una forma similar. Bajar videos de YouTube, ver IPTV, que es televisión por Internet, usar aplicaciones P2P, como lo son Utorrent, Bittorrent, Azureus, Kazaa, Limewire, consume mucho más tráfico que leer un periódico, hacer consultas en Google, etc.

Este consumo heterogéneo podrá ser en el futuro tarifado en forma diferente. Si un usuario no va a usar una aplicación P2P, pagará una tarifa menor. Ya hay aplicaciones que analizan el tráfico de los usuarios para negarle cierto tipo de usos en Internet si no paga por él. Estas categorías tarifarias de los proveedores del acceso a Internet son una forma de controlar el tráfico, pero eliminarían una de sus principales características: la neutralidad en las redes. Es decir, que por ellas puede circular todo tipo de tráfico sin importar de qué aplicación provenga.

En otras palabras, a la vez que se van a invertir millones de dólares en tecnologías para que la oferta de ancho de banda no se quede atrás de la demanda, seguramente también se van a introducir tarifas diferenciales para desestimular los usos de Internet que más tráfico generen. Y el que los necesite, pues que pague por ellos. Lo que sí no va a suceder es que Internet se apague totalmente.

puntos:2

Puntos: 4.

Hola a todos,

en primer lugar quisiera hacer unas aclaraciones, ya que leyendo los comentarios creo que hay compañeros que puede ser que no conozcan el funcionamiento de una aplicación P2P, y las redes TCP/IP.

Puertos. En una red TCP/IP, las máquinas tiene su MAC (identificador físico) y su IP (identificador de red). Dada una dirección IP, se pueden establecer múltiples conexiones en ella. Esto se consigue con los puertos. En concreto, si no me recuerdo mal, hay 65535 puertos, por lo que en principio podemos mantener ese número de conexiones sobre la IP. Por eso puedes tener abierto el Firefox, el Thunderbird, el eMule, etc. porque cada uno de ellos está trabajando en puertos diferentes, pero con la misma IP.
En una de las entradas se dice que “como solución se cierren determinados puertos, y si alguien quiere un servicio especial que contrate su apertura”, o algo así. Vamos a ver, un programa de intercambio puede trabajar en cualquier puerto TCP (incluso UDP), eso no es la solución. Algunos puertos están destinados a usos conocidos, como el 80 (http), el 21 (ftp) o el 25 (smtp), pero incluso éstos pueden cambiarse, y podemos decirle a nuestro navegador que pida páginas en el puerto X (http://nombremakina.com:X). Por tanto: la leyenda urbana de “es que ONO cierra los puertos del emule”, podemos descartarla, ya que el eMule puede trabajar en el puerto que quieras (se cambia en sus opciones de configuración).

Cómo limita ONO los paquetes P2P. Pues… no lo sé. Lo que sí que sé es cómo se hace en la UA (¿habéis probado el eMule aquí?). Pues como bien se dice en otra entrada, la forma de detectar los paquetes es analizando a nivel de aplicación. Vamos a explicarlo: un paquete en una red TCP/IP tiene varias cabeceras de datos. Aquí podéis ver más o menos las cabeceras, y detrás de ellas vendrían los datos de la aplicación que generó el paquete, y unos datos de control de errores (CRC). ¿Dónde se puede dectectar los paquetes del emule? ¿en la capa de transporte (puertos)? Pues no, ya que hemos dejado claro ya que pueden trabajar en cualquier puerto. Se debe hacer en la capa de aplicación. Problema: los routers trabajan en la capa de transporte (puertos y direcciones IP). Así que no se puede limitar con routers (bueno, algunas técnicas hay para hacer algo…). Aquí, en la UA, se empleaba (ahora ya no lo sé) un PROXY, que se llama SQUID. Este software permite analizar las cabeceras de aplicación, y filtrar los paquetes de determinados programas. Con este software es fácil limitar muchas aplicaciones, aunque cambien de puerto.

Un ejemplo: todos (o casi) usamos el Messenger. Las últimas versiones permiten mutar el puerto al 80. Así que, si quieres limitar su uso a nivel de transporte, ¿cierras el 80? Pues mal lo veo. Para este problema (muy típico en empresas) usamos el Squid, aquí tenéis las reglas a introducir para limitarlo.

Sí, ya sé que hay ofuscadores de paquetes, pero analizando esos ofuscadores podemos ver qué cabeceras genera y las metemos en las definiciones del SQUID. Es una guerra contínua, eso está claro, pero es una solución para numerosas organizaciones.

Para finalizar, voy a comentar algo que en mi opinión va a agravar el problema actual, y que ya he visto en una entrada: el P2M. Se trata de un sistema de intercambio de fichero, pero que emplea el protocolo SMTP. Es decir, es correo. Esto supone un reto para “las mentes pensantes” de las redes, los “arquitectos de red”, como Juan Antonio Gil los llama. El problema radica en su naturaleza: es correo, simple y llanamente. ¿Qué se puede hacer? ¿cerramos el 25 y el 110? En principio, no veo la manera de filtrar este tráfico, ni siquiera a nivel de aplicación.

Yo empleo P2M en ocasiones, y os aseguro que prácticamente se consiguen velocidades de descarga directa. Haceros a la idea de lo que puede suponer. El problema radica en su complejidad de uso, no es tan simple como emule o Azureus. Pero si en algún momento alguien consigue simplificar el asunto y se populariza, puede ser un problemón.

De acuerdo con lo expuesto por los usuarios de la posibilidad de que Internet se colapse, pienso qe es difícil llegar a eso punto, ya que pienso que en caso de llegar o estar cerca de ese límite, los proveedores de servicios de internet podrían bajar la velocidad de todas nuestras conexiones en horarios de alta congestion o incluso cerrar el trafico a los clientes P2P, y esperar a una solución eficiente, aunque no sea tan fácil como el algoritmo de Jacobson debido a la escabilidad de hoy en dia, pienso k alguien sacará una soución que puede arreglar el problema que tenemos actualmente.
Quiero también realizar una pregunta ya que no me queda claro,sobre lo referido a las conexiones de Japón que son muy altas. Estos usuarios poseen velocidades muy altas y pueden abarcar gran ancho de banda.
¿La congestion que ellos puedan provocar nos afecta a nosotros?

Puntos: 0,5

Respecto al tema de Gestión de Red:
El elemento fundamental para hacer más eficientes los procesos empresariales, alcanzar nuevos mercados, ganar en competitividad y aumentar los ingresos, consiste en mantener la rapidez, fiabilidad y seguridad de las redes.

Fuentes:
http://www.getronics.com/es/es-es/solutions/servicios_infraestructura/Gestion_y_Mantenimiento/gm_gestiondered.htm

Puntos: 2 0 (copia-pega del catálogo de servicios de una consultoría, prácticamente nula relación con la temática de la entrada)

Segun el director de AT&T, el gran gigante de las comunicaciones en Estados Unidos, habría que invertir 130.000 millones de $ para una nueva infraestructura. Por otra parte, según Julio Alonso, experto en internet y director de Weblogs, dice que si no se invierte, la red no se colapsará, el único cambio que habrá será una disminución en la velocidad. Otro punto de vista es el de telefónica, que se muestra más cauta a la hora de hablar de saturación
Adjunto link con la noticia :

http://www.publico.es/ciencias/tecnologia/077979/se/colapsa/internet

Puntos: 2

Respecto al tema del ancho de banda de la red:
Parte de las preocupaciones sobre las limitaciones de internet tiene su origen en gigantesco volumen de Spam y virus informáticos que en todo momento circulan por la red. A ello, se agrega el hecho de que cantidad de usuarios de internet y el flujo de archivos pesados también aumentan de manera exponencial.
En la actualidad más de un tercio de todo el tráfico de internet son aplicaciones de video y audio que consumen mucho ancho de banda y en ocasiones los ISPs y las empresas de telecomunicaciones no consiguen cubrir las necesidades de banda ancha. Todo esto exige un aumento de la capacidad de la red, pero también una utilización más eficiente de los recursos existentes.

Fuentes:
http://www.inf.uct.cl/index.php?param=JTVCc2VydmljaW9zJTVEJTVCMSU1RCU1QjI3JTVEJTVCNiU1RCU1QjElNUQlNUIxMTglNUQ=

Puntos: 3 0.5 (argumentos incongruentes)

Efectivamente, al parecer tiene más parte de culpa la visualización de videos en internet (Youtube, Google Videos, etc.) que el uso de redes p2p.
Según he leído (primer enlace adjunto) en 2 años los actuales sistemas que constituyen Internet no serán capaces de soportar el contenido que generan los usuarios, haciendo hincapié en que la visualización de videos representará el 80% de todo el tráfico en 2010. Según indican, los servicios p2p solo representan el 20% del total.

Jim Ciccone (vicepresidente de asuntos legislativos de ATT), para que nos hagamos una idea de la creciente demanda de ancho de banda y del posible colapso al que nos enfrentamos, señala que en tres años 20 hogares típicos generarán más tráfico que la Internet actual. Pero también le pone precio a la posible solución: una inversión de 130.000 millones de dólares.

Personalmente no creo que para solucionar todo esto haya que restringir el uso de las redes p2p como ha indicado algún compañero (y más viendo que sólo suponen el 20% del tráfico). En cuanto a lo de pagar dependiendo del consumo que se haga soy también algo escéptico, aunque sería un mal menor, puesto que los operadores ya están planteando que si no se aplica esta última opción pasarán a administrar ellos mismos el tráfico. Cito un par de párrafos (segundo enlace que adjunto) que mencionan esta última carta mostrada por los operadores, y el por qué no parece viable:

“El elemento que subyace a este debate es un concepto llamado neutralidad de la Red y su posición contraria, la que Julio Alonso (director general de Weblogs SL y experto en Internet) define como “destruir el fantástico potencial de Internet como plataforma de distribución de nuevos servicios“. Ante una posible saturación, varias operadoras pusieron sobre la mesa la posibilidad de que pagasen más los usuarios y los sitios web que más ancho de banda utilizasen. El razonamiento era que los operadores podrían recuperar parte de la inversión necesaria para el mantenimiento y mejora de sus redes. Y si esa opción no era aceptada, pasarían a administrar el tráfico…”

“… Más de 1.350 millones de personas navegan por Internet para informarse, entretenerse o comunicarse. Y la única razón por la que lo hacen es porque la Red es neutral.

Es un problema complejo de resolver pero muy sencillo de entender. En Internet hay más de 100 millones de sitios web (periódicos, portales, buscadores, blogs, webs porno…). Los contenidos han crecido con exuberancia, casi sin límites, gracias a que la Red fue diseñada bajo un principio de neutralidad que significa que ninguna página (ni la de la todopoderosa Google, ni la de un adolescente en Facebook) es discriminada ni privilegiada en su acceso.

Las telecos quieren acabar con lo que creen una injusticia. Aseguran que, según crecen los contenidos, deben invertir en redes con mayor capacidad y, así, Google y el chaval de Facebook se beneficiarían de las inversiones que ellos realizan. Parece justo: quien quiera utilizar la autopista, que pague peaje.”
“Las compañías de telecomunicaciones olvidan algunas cosas. La primera es que sin una Red neutral no existiría esa exuberancia para compartir información, y sin ésta, no habría 1.350 millones de internautas que dejan ingresos mensuales muy suculentos en las arcas de AT&T o Telefónica. Muchas de estas compañías son, además, propietarias también de sitios web. Darles la capacidad de decidir quién tiene prioridad en Internet es dejar en manos del concesionario de la autopista, casualmente también fabricante de coches, la decisión de qué automóvil debe llegar primero a su destino.”

Podemos ver que la propuesta por parte de los operadores ha levantado algunas ampollas, ya que hay quienes piensan que discriminaría el acceso a internet y por tanto violaría la llamada “Neutralidad de la red” (un concepto que personalmente desconocía). Adjunto un par de enlaces donde podéis profundizar un poco más en qué es eso de la neutralidad de la red, y sobre el que se podría hablar bastante. Al parecer, en EE.UU. el Congreso ya rechazó hace un par de años La Cámara de los intentos para consagrar en la ley el principio de neutralidad de internet.

http://notinet.blogspot.com/2008/04/internet-esta-al-borde-del-colapso.html
http://www.cosassencillas.com/2008/05/06/posible-colapso-de-internet/
http://en.wikipedia.org/wiki/Net_neutrality
http://es.wikipedia.org/wiki/Neutralidad_de_red
http://www.merodeando.com/2006/05/25-neutralidad-de-la-red
http://news.bbc.co.uk/hi/spanish/science/newsid_5066000/5066056.stm

Puntos: 4

Respecto a la gestión de la red:

La gestión razonable de la red es, siempre ha sido, y probablemente seguirá siendo, fundamental para proporcionar el acceso de alta velocidad a Internet, o cualquier otro servicio basado en la red, que los consumidores solicitan”, escribió Comcast en un comentario presentado a la FCC (Comisión Federal de Comunicaciones) el mes pasado.

Fuentes:
http://www.ip-watch.org/weblog/index.php?p=964

Puntos: 2

Quisiera realizar una pregunta después de haber leído en varías páginas y aqui en el foro, y es acerca de los videos de alta resolución que es una de las causas por las que podría haber el supuesto colapso. ¿Porque se incorporan estos servicios de internet antes de realizar un estudio o unas pruebas en las que se verifique que algo como esto no provoque fallos?

Puntos: 0.5

Una de las criticas que quiero hacer es la de la hipotesis de que las operadoras puedan aumentar o fijar el precio de conexión para la gente que consuma mas ancho de banda en la red o la que descargue mas cosas.
Pienso que esto no es una solución ni mucho menos, hoy en dia para muchas personas como nosotros los estudiantes necesitamos constantemente internet y en ocasiones necesitamos bajar gran cantidad de contenido de internet para realizar nuestro ttrabajos. Si se adoptara esta política, creo que en vez de solucionar un problema, generarian otro gran problema que a ellos no les incumbe pero a nuestra sociedad repercute directamente, porque estaríamos volviendo hacia atras, me recuerda a cuando estaba limitado a navegar solo unas horas determinadas al dia.
O a la conexión que tenemos en los móviles que en algunos casos pagas por el tiempo o por los paquetes y que segun mi punto de vista es una tecnologia muy poco usada

Puntos : 0.5

Según Óscar Messano, Presidente del Directorio de Lacnic (Registro de Direcciones de Internet para América Latina y el Caribe), las inversiones que habría que hacer latinoaméria por un posible colapso, serían mínimas ya que la mayoría de empresas son nuevas y traen ya incorporado el IPv6, lo cual es una gran ventaja. Segun estudios, se estima que en 2011 se acabarían las direcciones IPv4
Aqui dejo el link:
http://www.siliconnews.es/es/special-report/2007/12/14/latinoamerica-colapso-red

Mi pregunta respecto a esto es: ¿Tanta importancia tiene el traspaso de ipv4 a ipv6 en el tema de la inversión que se pueda realizar?

Puntos: 2.5 2

La verdad nunca me habia parado a pensar en que la “autopista de la informacion” pudiese colapsarse,creemos que algo tan grande es para siempre pero ahora,despues de leer y de informarme me he dado cuenta de que puede caerse de un dia para el otro…

Pero el contenido crece, lo que implica que pesa mucho mas,cada vez hay mas usuarios debido a las tarifas cada vez mas asequibles,y junto con la popularización del uso de determinadas aplicaciones –como YouTube- y servicios –como la telefonía IP- y el incremento del número de dispositivos de acceso, están poniendo al límite la capacidad de Internet.

No creo que llegue al extremo de colapso de internet,pero si creo que habrá una problemas en el acceso y en la velocidad de la red, eso si,como llegue a suceder puede ser un gran caos.

Expertos pronostican colapso de Internet:
http://www.eltiempo.com/tiempoimpreso/edicionimpresa/primerplano/2008-03-30/ARTICULO-WEB-NOTA_INTERIOR-4049913.html

Puntos: 2

Soluciones que puede aplicar un proveedor de servicios ante las aplicaciones P2P:

– No hacer nada, dejarlo como está actualmente.
Esta solución no es viable, ya que supondría aumentar el ancho de banda y asumir los costes.

– Incrementar las tarifas a todos los usuarios o a aquellos que utilicen determinados servicios.
Debido a la gran competencia entre los proveedores de servicios esta opción conlleva un alto riesgo, pudiendo llevar a la pérdida de clientes. Se ha dado el caso en el que un proveedor de servicios aumento gratuitamente la velocidad de conexión a cambio de una limitación en el volumen de información, añadiendo un cargo si se sobrepasa dicho volumen. Este caso no tuvo éxito y demuestra que el mercado no está dispuesto a aceptar este tipo de soluciones.

– Dispositivos de caching especializados en tráfico P2P. Reducen de forma considerable e tráfico P2P sin que el usuario note relentizada su conexión. Se basa en almacenar el contenido solicitado por los usuarios en los caches del Proveedor de Servicios y se sirve desde allí cuando las aplicaciones P2P lo requieran.
El problema de este tipo de soluciones es que es altamente efectivo para manejar los picos de descargas de material nuevo, porque muchos
usuarios querrán descargar los mismos archivos al mismo tiempo. Pero, no resuelve el problema de los múltiples pedidos de descargas de archivos distintos que, acumulados, conforman el grueso del tráfico.

– Dispositivos de traffic shaping que permitan establecer políticas de tráfico que limiten el tráfico P2P y garanticen un nivel mínimo de tráfico a los
usuarios.
Esta opción requiere contar con las herramientas adecuadas, ya que identificar y medir los volúmenes de tráfico P2P es una actividad cada vez más difícil. Las herramientas de medición y reporte tradicionales se basan en el reconocimiento de puertos para catalogar y medir las aplicaciones presentes el la red. Este enfoque puede haber sido razonablemente preciso en el pasado, pero el creciente uso de puertos dinámicos y otras técnicas de ocultamiento empleadas por las aplicaciones modernas lo ha vuelto totalmente ineficaz. Estas herramientas terminan identificando gran parte del tráfico como “desconocido” o agrupándolo con otros protocolos no relacionados. Y sin una correcta identificación no es posible lograr un control efectivo.

http://www.bfya.com/docs/admp2p.pdf

Puntos: 2

PacketShaper es un dispositivo que identifica aplicaciones P2P y realiza tareas de administración del tráfico.
Características:
– Analiza cada paquete y detecta la firma digital de la aplicación.
– Es capaz de detectar más de 400 aplicaciones P2P.
– Realiza actualizaciones automáticas para detectar nuevas aplicaciones.
– Una vez que el tráfico está detectado se aplican las políticas para eliminar o reducir el tráfico P2P. Como por ejemplo: bloquear totalmente las aplicaciones P2P, limitar el tráfico total de las aplicaciones P2P o garantizar a cada usuario un mínimo/máximo de tráfico.
– Con el uso de estas políticas de control del tráfico se consigue reducir el ancho de banda utilizado en las aplicacines P2P considerablemente.

http://www.bfya.com/docs/admp2p.pdf

Puntos: 2 4

Puntos: 0 (aparte de no incluir la justificación documental obligatoria y tras encontrar el origen de la información en el blog: http://www.pocointeresante.net/blog/2007/06/el-p2p-salvaria-el-colapso-de-internet/ cuyo lema es:
“Somos un grupo de ex convictos acusados injustamente por el robo de jabones y tappers en un supermercado chino. Siguiendo el consejo de un psicologo amigo usaremos este medio para tratar de rehabilitarnos mentalmente e ir integrándonos a la sociedad lentamente.”
Un poco de seriedad… que luego se nos llena la boca autodenominándonos ingenieros, lo cierto es que así nos va.)


El ruteo del tráfico a través de redes P2P podría frenar la congestión de Internet.
“Esta afirmación esta realizada en base a un mapa topológico de las interconexión entre nodos de la gran nube. El mapeo se realizo con la colaboración de miles de ISPs que mediante un software registraron la manera en que se comunican sus nodos.”

Lo destacable es que unos 80 nodos, aproximadamente, que concentran la mayor parte del trafico se desactivaran, con conexiones p2p podrían encontrarse caminos alternativos para que el 70% de los nodos restantes se mantuvieran operativos. Las posibles trazas alternativas serian interminables debido a la cantidad de nodos cercanos de este tipo.

Según el estudio con esta nueva idea de estructuración del ruteo se plantea como mejorar una menor dependencia y tal vez ampliar la capacidad total de internet.

Yo creo que todo esto tiene dificil solucion.

Cobrar por tráfico, haria perder mucho dinero a las operadoras. Ninguno de los que estamos aqui necesitamos velocidades de 10 mb o mas para ver http, y realizar alguna descarga ocasional, asi que la gente elegiria menor velocidad, por consiguiente, menos ingresos para las operadoras.

En otro comentario, he leido que la Ofuscacion del Protocolo podria no ser efectiva, viendo que cabecera se genera, pero ya se sabe, hecha la ley, hecha la trampa. Se podria inventar algun sistema que lo haga de otra forma y quedar obsoleto.

Cerrar puertos, esta claro que no, ya que como decis, se puede redireccionar el trafico. Aunque viendolo bien, hay mucha gente que tiene emule, ares, etc… y que no tiene ni idea de que es un puerto. Lo instalan y se olvidan. Por lo que la carga en Internet se podria ver reducida.

Y otro comentario… ¿porque en vez de cerrar puertos de P2P o intentar bloquearlos, no se bloquean paginas como youtube?. Esta claro, que se vulnerarian derechos en ambas partes, pero si se contempla la primera opcion ( algunas operadoras lo han hecho con el P2P ), ¿porque no la segunda, si es lo que mas trafico genera?.

En definitiva, que por el momento, no le veo mucha solucion a esto, habrá que ver con el paso del tiempo, y que mejor… cuando se produzca, habra que tomar medidas drasticas para evitar una catastrofe mundial, porque hoy en dia el mundo sin internet, no lo veo funcionar.

Puntos : 2 0.5

Para mi tambien tiene dificil solucion este problema, aunque a largo plazo, si que creo que existira esa solucion y tendremos todos la misma igualdad en la
velocidad de internet, sin tener que renunciar a P2P, o a sitios como Youtube.

Mirando por internet, he encontrado la siguiente pagina, que considero interesante:

http://www.poliedric.com/docs/crisisquecrisis.htm

Puntos: 2

Yo creo que una de las posibles soluciones podría ser, como propone una página web ya citada por un compañero (http://www.inf.uct.cl/index.php?param=JTVCc2VydmljaW9zJTVEJTVCMSU1RCU1QjI3JTVEJTVCNiU1RCU1QjElNUQlNUIxMTglNUQ= , http://www.diarioti.com/gate/n.php?id=14169 o http://adanvvv.wordpress.com/2007/06/30/internet-podria-colapsar-a-fines-del-2007/) optimizar el uso de ancho de banda, priorizando el tráfico de red en función del perfil del usuario, ya que no todos los usuarios utilizan todos los servicios de los que dispone (pueden haber usuarios que solo utilicen internet para consultar el correo electronico y otros usuarios que utilicen internet para descargar videos de páginas como youtube o utilice programas P2P).

Ya veremos en el futuro cual puede ser la solución, porque aunque se dice que podrá colapsarse internet en el futuro, lo cierto es que, según la página web, ya se pronosticaba que a finales del año pasado podría suceder. Lo único que hay claro es que, como opinan mis compañeros, sería un desastre que internet se colapsase, ya que es algo básico en la actualidad.

Puntos: 0.5

Dada la gran cantidad de información expuesta.Una sintesis.

Ante el problema de la saturación del tráfico de la red encontramos que una de las posibles
soluciones para la regulación del tráfico seria la tarificación dependiendo
del consumo de recursos de la misma,se cree que es una soluciones que actualmente se barajan en
el mercado. Asi mismo hay constancia de que esta solucion ya se aplica en algunos paises del
extranjero.
Otra posible solucion es la tarificacion por volumenes de datos, la cual se oferta principalmente
para usuarios que hagan poco uso de internet,por lo que no es una solucion muy factible. Asi,
nos encontramos ante una situación en la que se anuncia que posiblemente en el 2010,nos podriamos
quedar sin red,debido a que la red podría colapsarse.

Por otro lado en referencia a una aplicacion P2P,nos encontramos con que el problema viene porque
los programas usados para hacer intercambio P2P hacen sus operaciones a nivel de aplicacion por lo
que forman un entramado de relaciones superpuestas a la red IP, lo que no permite el control seguro de
la banda. De esta forma lo programas P2P se convierten en uno de los grandes problemas de Internet,
ante el cualalgunas de las soluciones vendrían tambien por cortar los puertos P2P, y dejar solo
los necesario para consultas y navegar, y para aquellos usuarios que quisieran utilizar aplicaciones
P2P que pagaran una tasa mayor o por el contrario puesto que la mayoria de estas aplicaciones puede ser que esten rozando la
ilegalidad, se replantea esta solucion de cortar los puertos,y dejarlos solo para empresas o instituciones
que las necesiten realmente, no para la descarga de peliculas, musica etc. de forma gratuita, sin contar
todo el tráfico que ocupa la gran cantidad de virus y Spam que circulan continuamente por la red,
haciendo que en ocasiones los ISPs y las empresas de telecomunicaciones no consigan cubrir las necesidades
del ancho de banda.

Otra solución propuesta, es la solucion que desde años intentan aplicar discográficas y empresas de software
es la busqueda de un patron para detectar el tráfico de P2P, y aplicarle luego técnicas de Qos y gestión de tráfico
existente, el problema claro aparece en la busqueda de este patron y coste temporal que supondria.
Tambien encontramos otras optativas como pueden ser: Dispositivos caching especializados en tráfico
P2P, que reducen de forma considerable el tráfico P2P o dispositivos shaping que permiten establecer
politicas de trafico que limiten el trafico P2P y garanticen un nivel minimo de trafico a los usuarios.

Ante esta solución tambien se plantea la pequeña
duda de si esto realmente se realizara, las empresas podrían perder a gran parte de cliente, que contratan
sus servicios por estas aplicaciones P2P, por lo que se plantea tambien la posibilidad de que ante la llegada
de esta posible saturacion de la red, las empresas bajarian la velocidad de todas nuestras conexiones en horarios
de alta congestión o como ultimo recurso el cierre de los puertos.

Una de las soluciones propuestas por los expertos pasa por la inversion de una nueva infraestructura,con un coste de 130.000 millones, segun
el director de la AT&T, por otro lado Julio Alonso experto en internet dice que sino se realiza esta inversion
tampoco se saturara la red simplemente bajara su velocidad.

Finalmente toma fuerza la opcion de cobrar por el ancho de banda segun su utilizacion, ya que en EEUU
el operador de cable Time Warnes ya lo ha anunciando ,por lo que se supone que es cuestión de tiempo
su implantación. De esta forma se optimizaria el ancho de banda,priorizando el tráfico de la red segun
su utilizacion, ya que no todos los usuarios utilizan los mismo servicios.

Como opinion personal: Considero que es un tema del que como vemos en la informacion aportada por los
comentarios todavia no se sabe cual va ser su solución, pero que considero que va pasar por el sistema
monetario, es decir, como siempre se trata de aumentar las tarifas y salir perjudicias los usuarios, siempre
antes que las empresas.

Puntos: 5.5

Si esquematizamos las ultimas opiniones podremos llegar más fácilmente a una conclusión:

•Colapso en el ancho de banda: Está claro que el principal problema de la saturación de la red es debida a la gran demanda de descarga y visualización de videos. Solución Llevar fibra óptica a casa
•Cobrar en función del uso de ancho de banda http://www.elpais.com/articulo/internet/Time/Warner/cobrara/funcion/consumo/ancho/banda/elpeputec/20080117elpepunet_4/Tes
http://www.inf.uct.cl/index.php?param=JTVCc2VydmljaW9zJTVEJTVCMSU1RCU1QjI3JTVEJTVCNiU1RCU1QjElNUQlNUIxMTglNUQ

•Restringir o penalizar el uso masivo de P2P: Es producto estrella preferido por los consumidores, estarían cavando su propia tumba.
• Uso de patrones al tráfico de la red para detectar el tráfico P2P: coste temporal que supondría aplicar un reconocimiento medianamente inteligente.
• “Internet al borde del colapso: cada minuto se suben a YouTube 8 horas de video “ ”………30% en contenido online de video o la alta definición que consume entre siete y diez veces más ancho de banda…………..” http://www.theinquirer.es/2008/04/24/internet_al_borde_del_colapso_cada_minuto_se_suben_a_youtube_8_horas_de_video.html
• A la vez que se van a invertir millones de dólares en tecnologías para que la oferta de ancho de banda no se quede atrás de la demanda, seguramente también se van a introducir tarifas diferenciales para desestimular los usos de Internet que más tráfico generen.
•Optimizar el uso de ancho de banda, priorizando el tráfico de red en función del perfil del usuario
•Bajar la velocidad de todas nuestras conexiones en horarios de alta congestión o incluso cerrar el trafico a los clientes P2P, y esperar a una solución eficiente
•Hacer más eficientes los procesos empresariales, alcanzar nuevos mercados, ganar en competitividad y aumentar los ingresos, consiste en mantener la rapidez, fiabilidad y seguridad de las redes. http://www.getronics.com/es/es-es/solutions/servicios_infraestructura/Gestion_y_Mantenimiento/gm_gestiondered.htm
•La red no se colapsará, el único cambio que habrá será una disminución en la velocidad. http://www.publico.es/ciencias/tecnologia/077979/se/colapsa/internet
•No creo que para solucionar todo esto haya que restringir el uso de las redes p2p, “Neutralidad de la red”
http://notinet.blogspot.com/2008/04/internet-esta-al-borde-del-colapso.html
http://www.cosassencillas.com/2008/05/06/posible-colapso-de-internet/
http://en.wikipedia.org/wiki/Net_neutrality
http://es.wikipedia.org/wiki/Neutralidad_de_red
http://www.merodeando.com/2006/05/25-neutralidad-de-la-red
http://news.bbc.co.uk/hi/spanish/science/newsid_5066000/5066056.stm

•No creo que llegue al extremo de colapso de internet, pero si habrá problemas en el acceso y en la velocidad de la red
http://www.eltiempo.com/tiempoimpreso/edicionimpresa/primerplano/2008-03-30/ARTICULO-WEB-NOTA_INTERIOR-4049913
•La gestión razonable de la red es fundamental para proporcionar el acceso de alta velocidad a Internet, o cualquier otro servicio basado en la red, que los consumidores solicitan
http://www.ip-watch.org/weblog/index.php?p=964
•Aumentar o fijar el precio de conexión no es una solución ni mucho menos.
•Las inversiones que habría que hacer latinoaméria por un posible colapso, serían mínimas ya que la mayoría de empresas son nuevas y traen ya incorporado el IPv6.
http://www.siliconnews.es/es/special-report/2007/12/14/latinoamerica-colapso-red
•Dispositivos de caching especializados en tráfico P2P
•Dispositivos de traffic shaping.
http://www.bfya.com/docs/admp2p.pdf
•PacketShaper es un dispositivo que identifica aplicaciones P2P y realiza tareas de administración del tráfico. http://www.bfya.com/docs/admp2p.pdf
•No le veo mucha solución a esto, habrá que ver con el paso del tiempo.http://www.poliedric.com/docs/crisisquecrisis.htm

Como conclusión creo que la verdad es difícil predecir qué puede pasar, depende de muchos factores como bien indican mis compañeros, lo que si está claro es que hoy día todo ciudadano posee su conexión para descargarse vídeos y cobrar más por esto puede traer ciertos problemas como la disminución de usuarios en un mercado en el que hoy por hoy la competencia es brutal, si bien la solución es no hacer nada y dejar que disminuya la velocidad, que suele ser lo más normal y en el momento en el que empeore la situación si no ha surgido alguien “todavía” con una solución eficiente, entonces empezaran a plantearse estudiar las diferentes posibilidades.

Puntos: 5

Me ha parecido muy interesante este post. Yo había oído hablar acerca del consumo excesivo de ancho de banda que consume las descargas realizadas a través de programas basados en P2P, pero no conocía el alcance. Me parece injusto que mis recursos de red se vean afectados, disminuyendo mi capacidad de búsqueda y descarga de documentación, por culpa de que otros usuarios empleen métodos de descarga de contenidos audiovisuales, en su mayoría alégales. Creo que Interned es un bien común y como tal ha de administrarse. No veo justo que aquellas personas que usan la red de redes para buscar documentación y realizar consultas, estén financiando con sus recurso de red las actividades de otros usuarios “caníbales y piratas”, obsesionados por tener la videoteca más completa, sin gastarse un duro, como si las producciones audiovisuales creciesen como los hongos en la tierra. Por ello estoy totalmente a favor de que se gestiones la densidad de tráfico de estos contenidos, a fin de reducir la sobrecarga de la red y disminuir estas prácticas. Es obvio que tienen que prevalecer las necesidades frete a los caprichos, y el que los quiera y pueda que los pague.

Por lo que estoy de acuerdo con el empleo de técnicas de detección de congestión y equilibrado de carga de red, que ralenticen este tipo de aplicaciones en función del estado de congestión de la red.

También estoy de acuerdo con que se tarifique de modo distinto, el uso de la red para estas prácticas.

Según he leído, la demanda de aplicaciones de banda ancha se está incrementarse cada día más. El consumo de vídeo por Internet se ha disparado. De seguir incrementándose el número de usuarios y estas demandas, se prevé que Interned, dentro de un par de años, vuelva ha funcionar a pedales, como en los primeros tiempos, cuando se utilizaba la red telefónica. Esto afectaría al tiempo de carga de las páginas, llegándose a interrumpirse las descargas de los vídeos y se paralizarían las transacciones electrónicas, lo que podría ser un caos a muchos niveles. Esperemos que se realicen las inversiones oportunas y esta maravilla siga funcionando y evolucionando libremente y con igualdad de recursos para todos, como bien común que es, para toda la humanidad.

Haciendo un símil, creo que de nada sirve tener unas super autopista y circunvalaciones, si luego el tráfico en el interior de las ciudades está colapsado, por falta de previsión, gestión, organización e inversiones.

Puntuación: 2

Me gustaria dar mi opinion al respecto de la crisis que está sufriendo internet
ya que me parece que es una realidad lo que está pasando, es decir las compañias de
banda ancha, sabian a lo que se iban a enfrentar. Han estado ofreciendo unas velocidades de subida
y bajada de datos impresionantes (muy elevadas) y en el momento vieron que no podian ofrecer estos servicios han
ido censurando la linea (y por supuesto han empezado por el p2p), pero me parece una forma muy injusta
de solucionar el problema, ya que si pagas por un servicio ha de ser con todas las garantias (por ejemplo:
el dia que el estado ponga en vigencia la misma ley que ha puesto en Francia, la gente dejara de gastar p2p,
lo considero muy radical). He recopilado una serie de links donde podemos ver las quejas más comunes
que tienen algunas compañias de adsl.
ONO:
http://www.adslzone.net/postt8952.html&sid=8370ff1a29f5df4e5e2ac7739949f892
http://foros.internautas.org/viewtopic.php?t=6914
http://www.lphantes.com/foro/la-verdad-sobre-el-capado-de-ono-y-otros-isp-capan-el-p2p-vt10.html
Telefonica:
Articulo sobre desvio de conexiones:http://www.infonoticias.net/article-print-433.html
Los usuarios P2P obligan a Telefónica a discriminar a los clientes de pago:
http://www.noticias.info/Archivo/2006/200608/20060810/20060810_209084.shtm
Por el contrario me he fijado que las compañias que realmente dependen de telefonica (le alquilan la linea)
no sufren estos tipos de reducciones.
Puntuacion: 2

Se ha estado debatiendo mucho acerca de la neutralidad en la red.

El análisis que se hace en esta pagina me parece acertado y esta última reflexión bastante aclaradora a la vez que graciosa.
http://blog.maz.cl/2007/06/qu-es-la-neutralidad-de-la-red.html

“Defender y respaldar el principio de Neutralidad en la Red es algo tan simple como pedir que se respeten las condiciones de servicio y el acuerdo técnico-comercial originalmente establecido con los ISPs: recibir un cierto ancho de banda por una tarifa determinada, con un buen nivel de servicio. Ni más ni menos que eso. Respetar la Neutralidad de la Red es respetar las condiciones originales del servicio contratado.

Si usted está dispuesto a que cualquier día:

* la empresa de servicios eléctricos le cobre más caro por la energía para el televisor y el computador manteniendo la tarifa básica para la iluminación
* la panadería le cobre un precio distinto por el kilo de pan en el caso de que usted decida posteriormente hacer en su casa un sandwich de jamón o uno de queso
* el vendedor le cobre distinto por un lápiz de tinta, dependiendo de si lo utilizará para estudiar literatura o hacer ejercicios de matemáticas

Entonces la decisión es muy simple … no haga nada.”

Bajo mi punto de vista el problema no reside en los “canibales del ancho de banda de la red”, sino la escasez de diversificación en las tarificaciones de las empresas que proporcionan el servicio.
En su lucha por obtener nuevos clientes ofrecen cada vez mayores velocidades manteniendo los precios y servicios de las conexiones. Los clientes encantados y las empresas también, mientras no se colapse la red todo vale.

Se está hablando de controlar y reducir el tráfico p2p o incluso de prohibir su uso (en ocasiones aludiendo a que se da un uso ilegal a estos programas o a el facilón “yo no los utilizo a si que por que mi vecino tiene que usarlos”), una opción tan válida como cualkier otra… porqué no prohibimos el uso del correo ( el 95% de los emails son spam (publicitario o no), cadenas sin sentido y demás memeces varias), o las descargas directas de páginas como megaupload y similares ( seguro que pensando 10 segundos encontramos otras 5 razones para cerrar estos también).
La respuesta es muy sencilla la inmensa mayoria de contratos con los proveedores de red garantizan una velocidad determinada durante 24 horas. Sin distinción de contenidos ni de % de uso de la red.

Si a alguien le ofertan 3 MB de ancho de banda sin limitaciones, los gastará con p2p, email, descarga directa y buscando documentación, como y cuando le plazca, ya que para eso los paga. Y cuanto más provecho les saque pues mejor.
Si eres un “canibal de la red” estarás feliz con este sistema y sino echarás de menos una tarificación más restrictiva que sea más barata.

Me parecen válidas varias de las soluciones que se han citado, como limitar diversos tipos de tráfico o el pagar por el consumo de red pero siempre desde la transparencia empresarial.
Y está claro que las tarifas en las que se paga por cantidad de información descargada, o en las que se limiten descargas de youtube o uso de p2p (o cualkier otro servicio de consumo masivo), no van a ser del agrado de la mayoria de consumidores.

Así que en caso de ofertarse como única solución al problema de la congestión de red deberia hacerse de forma unilateral por todas las compañias y ya sabemos lo que cuestan esas cosas.

Como siempre saldremos perdiendo los consumidores, ya que las empresas no van a recortar sus beneficios para ofrecer un mejor servicio.

Puntos 4

Por si no ha quedado claro resumiendo un poco…

Estoy totalmente de acuerdo con los que defienden la neutralidad de la red basándose en que sus condiciones de servicio con los ISPs se las garantizan y parcialmente de acuerdo con los que se quejan de pagar por unos servicios que ellos no consumen para que otros se aprovechen.
Sólo que no hay que achacar estos males a los canibales de la red sino a la falta de previsión y soluciones que ofrecen los ISPs.

Como curiosidad os dejo esta pagina que he encontrado por casualidad buscando información.
Seguro que no es muy fiable pero bueno… intenta averiguar si tu ISP está manipulando algún tipo de tráfico.

puntos 0.5

Al ser la demanda de banda ancha cada vez mayor, se hace muy difícil el intentar concienciar a la gente de que se utilice Internet solo para lo “imprescindible” o tarificar mas según uso, aunque parece que son bastantes estudios y empresas las que lo proponen y apoyan.
Pienso, según lo leído y encontrado en la red, la solución que salvaría esta situación sería invertir con el fin de adecuar la infraestructura a la demanda, aunque esto supondría un gran gasto. Según un estudio de los analistas de tecnología Nemertes Research, deberían invertirse unos 137.000 millones de dólares para evitar el colapso de la Red…casi nada.
Enlaces interesantes:
http://www.sworch.com/modules.php?name=News&file=print&sid=107
http://www.inf.uct.cl/index.php?param=JTVCc2VydmljaW9zJTVEJTVCMSU1RCU1QjI3JTVEJTVCNiU1RCU1QjElNUQlNUIxMTglNUQ=
http://www.baquia.com/noticias.php?id=13024

Puntos: 2

He encontrado los siguientes enlaces relacionados con la limitación que realizan las operadoras a las redes p2p:

http://www.20minutos.es/noticia/376656/0/operadora/limites/p2p/
http://www.20minutos.es/noticia/375494/0/p4p/velocidad/operadoras/

Por otro lado, he visto lo siguiente:
http://www.20minutos.es/minuteca/p2p/

Se trata de un hilo que se actualiza constantemente y muestra todas las notícias relacionadas con el p2p que se han publicado en el diario 20 minutos (me ha parecido bastante útil y en relación con los temas tratados en este hilo).

Puntos: 2

Un poco de Historia

Tim Berners-Lee, físico nacido el 8 de junio de 1955 en Londres, Reino Unido. Es considerado como el padre de la web.

Ante la necesidad de distribuir e intercambiar información acerca de sus investigaciones de una manera más efectiva, desarrolló las ideas que forman parte de la web. Tim y su grupo desarrollaron lo que por sus siglas en inglés se denominan: Lenguaje HTML (HyperText Markup Language) o lenguaje de etiquetas de hipertexto; el protocolo HTTP (HyperText Transfer Protocol); y el sistema de localización de objetos en la web URL (Universal Resource Locator).

Berners-Lee trabajó en el CERN desde junio hasta diciembre de 1980, durante ese tiempo propuso un proyecto basado en el hipertexto para facilitar la forma de compartir y la puesta al día de la información entre investigadores.

En 1989 el CERN era el nodo de Internet más grande de Europa y Berners-Lee vio la oportunidad de unir Internet y el hipertexto (HTTP y HTML), de lo que surgiría la World Wide Web. Para esto diseño y construyo el primer navegador (llamado
WorldWideWeb y desarrollado con NEXTSPEP) y el primer servidor Web al que llamó httpd (HyperText Transfer Protocol daemon).

El primer servidor Web se encontraba en el CERN y fue puesto en línea el 6 de agosto de 1991. Esto proporcionó una explicación sobre lo que era el World Wide Web, como uno podría tener un navegador y como establecer un servidor Web. Este fue también el primer directorio Web del mundo, ya que Berners-Lee mantuvo una lista de otros sitios Web aparte del suyo. Debido a que tanto el software del servidor como del cliente fue liberado de forma gratuita desde el CERN, el corazón de Internet Europeo en esa época, su difusión fue muy rápida. El número de servidores Web pasó de veintiséis de 1992 a doscientos en octubre de 1995 lo que refleja cual fue la velocidad de la difusión de internet.

En 1994 Berners puso en marcha el W3C, que dirige actualmente
El W3C fue creado para guiar la Web hacia su potencial máximo mediante el desarrollo de protocolos comunes que promuevan su evolución y garanticen su interactividad. Se trata de un consorcio de la industria internacional gestionado conjuntamente por el Laboratorio de Ciencia Computacional e Inteligencia Artificial del MIT (MIT CSAIL) en EEUU, el Consorcio Europeo para la Investigación en Informática y Matemáticas (ERCIM) con sede en Francia y la Universidad Keio en Japón. Los Servicios proporcionados por el Consorcio incluyen un almacén de información sobre el World Wide Web para desarrolladores y usuarios, y varios prototipos y aplicaciones de ejemplo para demostrar el uso de estas nuevas tecnologías.

Tim Berners por encima de todo, sigue promoviendo su visión de la www como una fuerza que incentive el cambio social y la creatividad del individuo. La revista Time lo escogió como una de las 100 personalidades más importantes del siglo XX.

http://es.wikipedia.org/wiki/Tim_Berners-Lee
http://www.w3c.es/Prensa/2004/nota040716.html
http://www.elmundo.es/navegante/personajes/bernerslee.html

puntos 2

The Grid, ¿Una nueva internet desarrollada de nuevo por la CERN?

¿La red del futuro?, La próxima Internet, ¿Una nueva Internet?, El sueño de la súper velocidad en Internet, Internet ha muerto, bienvenidos a “The Grid”,… rezan algunos titulares de las páginas de las que he obtenido la información.
Si bien bastante entusiastas y poco conservadoras, no deja de ser una posible alternativa de futuro a los problemas de saturación de la red… internet como la conocemos se está quedando pequeña.

El CERN es la Organización Europea para la Investigación Nuclear. Se trata del mayor laboratorio de investigación en Física de partículas a nivel mundial.

Antes de comenzar a explicar que es “The Grid”, vamos a explicar un poco en que contexto se desarrolla la misma.
Se encuentra actualmente en construcción un acelerador de particulas enorme llamado LHC (Large Hadron Collider) el cual está siendo desarrollado por la CERN. El LHC es un acelerador de partículas de altas energías enorme (el más grande del mundo), tiene una circunferencia de 27 kilometros y se encuentra en la frontera entre Suiza y Francia.

El problema a todo esto es que el LHC es una máquina de generar datos, los cuales obviamente requieren un posterior procesamiento después del almacenamiento.
Anualmente, el LHC va a generar aproximadamente 36.400.000 de Gigabytes. Por esta misma razón, si han de comunicarse estos 36.4 millones de gigabytes alrededor del mundo, se debe buscar un medio más rápido o menos “cargado”, ya que de hacerse con la Internet actual (que ya bastante saturada está) causaría un colapso mundial en todas las comunicaciones. Tal y como se informa en The Times, para almacenar los datos generados en un solo año serían necesarios 56 millones de CDs, los cuales en caso de apilarse los unos encima de los otros, alcanzarían una altura de 64 kilómetros.

Debido a este problema, se comenzó a desarrollar lo que decidieron llamar “The Grid”. Una red de comunicación y procesamiento distrubuidos en varios servidores alrededor de todo el mundo que es 10.000 veces más rápido que la Internet actual.

¿Cuál es la diferencia entre la red actual y la futura? La red actual se basa en cables y equipos de enrutamiento que fueron mayoritariamente diseñados para telefonía por lo que no tienen capacidad para transmitir datos a grandes velocidades. La nueva red utiliza once enlaces de fibra óptica dedicados que conectan al CERN con otros centros y la capacidad de los 55 mil servidores instalados actualmente, cifra que ascenderá a doscientos mil en los próximos dos años.

Por el momento, sólo se utilizaria con el fin de la CERN, pero con el tiempo, podría ser la red de uso común con lo que quedaría de lado la conexión actual. En cuanto a los resultados que podríamos obtener son muy amplios: Para hacernos una idea, a esa velocidad bajarse una película en DVD llevaría apenas 5 segundos, y transferir la discografía completa en MP3 de los Stones desde Gran Bretaña a Japón, tardaría dos segundos, transmitir imágenes holográficas, jugar en forma online con cientos de miles de internautas, y todo lo que se les ocurra.

Lo más interesante es que, mientras mas equipos se agreguen a “La Grilla”, más capacidad de procesamiento y transmición tendrá la misma, algo que está heredado del procesamiento distribuido que podemos observar en programas como SETI@Home o “World Community Grid”, los cuales son programas que permiten procesar información cuando no estamos utilizando nuestro microprocesador.

http://www.mastermagazine.info/articulo/12848.php
http://www.alkon.com.ar/tech/articulos/3460_bienvenidos_a_the_grid,_la_proxima_internet.html
http://www.maikelnai.es/2008/04/06/internet-ha-muerto-bienvenidos-a-the-grid/
http://www.theinquirer.es/2008/04/06/llega_the_grid_el_sueno_de_la_super_velocidad_en_internet_.html
http://www.clarin.com/diario/2008/04/08/sociedad/s-01646173.htm

Puntos 4

Crisis de Internet, ¿mito o realidad?
Dos noticias preocupantes sobre Internet. Ambas coinciden en que Internet podría copar su capacidad de ancho de banda, generando la primera gran crisis en Internet con el consecuente colapso del servicio.

La primera noticia está basada en una apreciación técnica de Forbes, donde en líneas generales se precisa que la capacidad de la Internet se ha copado por el crecimiento de los usuarios en los últimos años y el desmesurado crecimiento de lugares de transmisión de datos de vídeos y redes P2P.
La segunda noticia es mucho más preocupante, pues a esta crisis se suma el nuevo sistema operativo Windows Vista. Según “Paul Mockapetris, inventor del Sistema de Nombres de dominio (DNS), Vista podría reducir la velocidad de tráfico en Internet”.

http://www.poliedric.com/docs/crisisquecrisis.htm
http://pospost.blogspot.com/2007/05/se-avecina-la-gran-crisis-de-la.html
http://www.ricplan.net/de-la-crisis-de-internet-mito-o-realidad/
http://www.eldolar.net/marketing/crisisinternet.php

PUNTOS:2

Comments are closed.