Categories
Redes de datos SST

Canibalizando el ancho de banda de la red

Como siguiente actividad a través del blog de la asignatura se propone el análisis de la siguiente problemática relativa al ancho de banda de Internet:  

Anteriores crisis en Internet

Internet es un estándar en evolución que ha sufrido múltiples problemas para su crecimiento y continúa haciéndoles frente a día de hoy. El aumento del FTP (File Transfer Protocol) causó el “colapso por congestión” de 1986 debido a que la Internet en aquel momento carecía de un mecanismo funcional que evitase la congestión. Esto fue parcheado en 1987 por Van Jacobson (co-autor de traceroute y tcpdump entre otras) con su algoritmo para evitar la congestión que asignaba de forma equitativa los recursos de la red a las aplicaciones. A pesar de que han aparecido nuevas y más eficientes formas de control de la congestión, el algoritmo de Van Jacobson se ha mantenido durante más de 20 años.A mediados de los 90, el aumento de la navegación web había convertido la “World Wide Web” a la “World Wide Wait” debido a que la primera generación de navegadores web no se había para la utilización de los recursos de forma optimizada hasta el paso de HTTP de la versión 1.0 a la 1.1.

La crisis de hoy en Internet

Hoy nos enfrentamos a un nuevo problema. Las aplicaciones P2P (Peer-to-Peer) están provocando un nuevo colapso por congestión ya que la difusión (broadcast) de video (incluso con las novedades ofrecidas desde la BBC y RTVE) está migrando hacia un modelo de VoD (Video on Demand) a través de Internet. Debido a las lagunas existentes en el estándar TCP, un pequeño porcentaje de usuarios que utilizan P2P están apropiándose de la inmensa mayoría de la capacidad de la red a expensas de todos los demás consumidores. Aplicaciones interactivas como la navegación web o aplicaciones de tiempo real como la voz sobre IP están siendo degradadas innecesariamente no por las operadoras sino por los usuarios de P2P.En Japón, con una de las infraestructuras de acceso de banda ancha a Internet más rápida del mundo, donde muchos hogares tienen acceso a 100 Mbps o incluso 1000 Mbps mediante fibra óptica se enfrentan al mismo colapso inducido por la congestión P2P. Esto ha hecho que su gobierno haya dedicado bastantes recursos durante los últimos dos años para estudiar el tema. Recientemente, el Ministerio japonés de Asuntos Internos y Comunicaciones publicó un estudio que muestra que tan sólo el 1% de usuarios de banda ancha utilizando P2P de Japón contabiliza (en adelante, “canibaliza”) con aproximadamente el 47% del uso de Internet de todo Japón. Por otra parte, sólo el 10% de Japón de usuarios de banda ancha utilizando P2P “canibaliza”, en promedio, el 75% de toda la utilización global de todo Internet.  

Esto sería como si 10 pasajeros de un avión de 100 asientos ocupasen 75 asientos y obligaran a los otros 90 pasajeros a compartir los 25 asientos restantes. Uno de esos 10 pasajeros podría tener hasta 47 asientos, mientras que los otros 9 tendrían hasta 28 escaños.  Es perfectamente aceptable que 10 personas ocupen 75 asientos (equipaje de mano, abrigos, portátiles,…) mientras únicamente haya 25 personas en el avión que se conformen con un único asiento sin embargo es completamente injusto cuando hay 90 pasajeros, que han pagado al igual que los primeros su billete, poder sentarse únicamente en 25 asientos. Habría que decirle a esas 10 personas que utilicen los espacios a sus pies para las bolsas a fin de que otros pasajeros puedan sentarse. Sin embargo, en Internet no es tan fácil para todo el mundo ver lo que realmente pasa, los “caníbales” del ancho de banda gritan “discriminación” y persuaden a la comunidad a retratarse como las víctimas del mal y a pensar que están siendo privados de sus derechos civiles. Si alguien se atreve a decelerar su consumo excesivo de alguna manera, ponen demandas de billones de dólares (y para eso hace falta tener los recursos necesarios). Pero no hay nada neutral o imparcial en lo que estos grupos están pidiendo y no son tan protectores de los derechos de los consumidores como se jactan a sí mismos de ser.

La injusticia del control de congestión TCP

Entonces, ¿cómo puede ser que esta situación de extrema injusticia sea posible cuando el control de congestión TCP supuestamente ha sido justo durante estos 20 años? ¿Por qué no se explica en la carrera? Es porque el algoritmo de Jacobson fue diseñado únicamente para el problema del FTP de la década de los 80, no los problemas de los 90 y más allá. Sólo trata de equilibrar el caudal de cada flujo TCP, sin tener en cuenta cuántos flujos TCP abrir puede la aplicación de un mismo usuario. Aunque el algoritmo de Jacobson funcionó con las primeras aplicaciones de Internet que sólo utilizan un flujo TCP activo a la vez, es totalmente ineficaz para las aplicaciones de hoy.


En 1999, la primera aplicación P2P llamada “Swarmcast” apareció en Internet y comenzó a explotar esta laguna. Cuando una aplicación P2P abre múltiples flujos TCP, cada flujo TCP corre con la misma prioridad que los demás flujos TCP. Esto significa que una persona que utiliza 4 flujos TCP recibe 4 veces más ancho de banda en una red congestionada que una persona que utiliza el flujo TCP normal y único por aplicación. Junto con el hecho de que las aplicaciones P2P funcionan sin parar durante todo el día, mientras que las aplicaciones normales sólo transmiten y reciben datos durante un pequeño porcentaje del tiempo respecto de las 24 horas de un día, es fácil ver cómo sólo el 1% de los usuarios, utilizando P2P, tienen la capacidad de consumir casi la mitad de todos los recursos.

Arreglando la “injusticia de TCP”

Gracias al trabajo de Frank Kelly, de la Universidad de Cambridge, y Bob Briscoe, investigador jefe en BT, el asunto de la “injusticia de TCP” está ahora ante la IETF (Internet Engineering Task Force). Briscoe ha emitido un draft IETF con la declaración del problema y que resuelve las lagunas en TCP. Enlazando con el contenido del blog de la asignatura AIRC, Briscoe también demostró hace un par de años que el afamado Teorema de Metcalfe no es del todo cierto.Por desgracia, introducir cambios fundamentales en las normas a nivel TCP es sumamente difícil y conllevaría mucho tiempo.

Incluso cuando otros mecanismos de control contra la congestión de TCP mejores que el de Van Jacobson como el ECN (Explicit Congestion Notification) se estandarizaron en 2001, todavía no hemos visto ningún despliegue en el mundo real porque no podemos forzar a actualizar cada dispositivo de los miles de millones ya instalados. Ya no estamos en el momento en que unos cuantos miles de administradores del sistema pudieron parchear con el algoritmo de Jacobson los únicamente 30000 nodos de todo Internet allá en 1987.  

En el mundo real, es muy poco probable que un único “seeder” P2P de BitTorrent no sea egoísta respecto al ancho de banda que utiliza. Cualquiera que saturando la subida sin parar y mediante el uso de múltiples flujos TCP está, por definición, “canibalizando” una proporción mucho mayor de ancho de banda que nadie. Incluso si un usuario P2P manualmente restringe su consumo de ancho de banda a una fracción del pico de carga y sólo proporciona “semillas” durante 12 horas al día, la cantidad de recursos utilizados también bloquea cualquier otra aplicación. Como se muestra en el gráfico anterior, sólo la ventaja de la persistencia por sí sola permite a un cliente de BitTorrent disponer de un orden de magnitud mayor en el ancho de banda de subida que cualquier otra aplicación.  

¿Cómo podemos hacer frente a la crisis de forma inmediata?

La realidad es que no podemos esperar un cambio significativo en el protocolo TCP para el futuro previsible, por no hablar de desplegar tal actualización en todo el mundo. La solución debe encontrarse en la red en sí misma, porque no podemos esperar que los usuarios normales parcheen sus computadoras para comportarse más educadamente aunque dicho parche sea aprobado y estandarizado. La red debe aplicar y hacer cumplir la justicia o de lo contrario tenemos un estado de anarquía donde los deseos de unos pocos limitan la mayor parte de la capacidad que pagan todos los usuarios. La primera generación de soluciones utiliza la estrategia de descartar tráfico para neutralizar las cantidades de ancho de banda desproporcionadamente elevadas que consumen las aplicaciones P2P. Esta regulación no es siempre el método más preciso y no se puede utilizar en todas las topologías de red pero es barato de desplegar y utilizar, cuando es eficaz.

Otras soluciones de primera generación como Sandvine, utilizadas por las empresas de cable, ocasionalmente dan falsos positivos pero esos errores se corrigen rápidamente tan pronto como se identifican.El mayor problema con estas soluciones de primera generación es que no pueden identificar a todos los “caníbales” del ancho de banda y pueden ser engañados por las técnicas de ofuscación de protocolos. También es cierto que es mucho menos que ideal forzar una paralización total de un “seeder” de P2P BitTorrent aunque sea sólo durante los minutos congestionados del día en lugar de decelerar su actividad. Sin embargo, ralentizar a un determinado “caníbal” del ancho de banda requiere cambios más drásticos en la infraestructura de red, en contraposición con el mecanismo de Sandvine, que no afecta a la infraestructura de red, que emite resets TCP de vez en cuando para detener la siembra de P2P.

Free Press y la EFF afirman que sería mejor si los propios usuarios controlaran ellos mismos, en forma de incentivos económicos, su acceso a Internet. Pero eso sería mucho más draconiano, ya que los usuarios tendrían que cerrar manualmente sus aplicaciones P2P durante 12 horas al día frente a que automáticamente el proveedor de servicios de Internet reseteara las semillas P2P durante unos pocos minutos a la vez que no se afecta el tráfico de carga y descarga de P2P.La crisis inmediata es aún más problemática para la industria inalámbrica, donde el espectro y el ancho de banda son aún más escasos y la capacidad es compartida entre un mayor número de usuarios que en una red de de cable DOCSIS. Una opción que se utiliza hoy en día es avisar por adelantado a los clientes que las aplicaciones P2P no son compatibles con el servicio.

Los pequeños operadores inalámbricos funcionando en bandas sin licencia en el espectro de 2,4 GHz tiene tan poco espectro (y además compartido) y la capacidad de sus conexiones de interconexión con Internet son tan caros que no pueden permitirse el lujo de soportar la carga de los costes de ancho de banda del paso de contenidos de otras las empresas a través de ellos. No sólo son los costes de ancho de banda a través de ellos en el marco del modelo de distribución P2P, los costes son amplificados por un orden de magnitud, porque el ancho de banda en las zonas rurales cuesta mucho más que el ancho de banda concentrado en los “datacenters”. Estos pequeños proveedores de servicios de Internet inalámbrica son muchas veces los únicos proveedores de servicios de Internet en esas zonas debido a que las grandes empresas no quieren dar serviciio a esas zonas menos lucrativas.

A medida que la tecnología madura y la gestión de la red se vuelve más sofisticada, las empresas que son más susceptibles de sufrir congestión por P2P (las que utilizan medios compartidos de transmisión como cable coaxial o inalámbricos) se están comprometiendo a implementar nuevas tecnologías agnósticas de protocolos y hacer cumplir la equidad de ancho de banda en tiempo real y por usuario. Estas nuevas tecnologías evitan falsos positivos o falsos negativos y lo que es más importante, no se les puede engañar con técnicas de ofuscación por protocolo porque sólo les basta con fijarse en los patrones de uso de ancho de banda. Así responden a los “caníbales” del ancho de banda desacelerando sus conexiones en lugar de reseteando sus conexiones TCP.

El CTO de Comcast, Tony Werner, explicó que cualquier enlace congestionado en su red consta de un 2% de los usuarios “canibalizando” aproximadamente la mitad de la capacidad total a expensas de todos los demás y esto es coherente con los datos del gobierno de Japón. La nueva tecnología que Comcast está experimentando sobre la aceleración por prioridades hace que ese 2% puedan utilizar hasta aproximadamente el 25% de todos los recursos y explican que eso sería suficiente para aliviar la congestión de todos los demás. Cuando la red no está congestionada, ese 2% de usuarios pueden reanudar sus aplicaciones P2P tanto como les plazca. BitTorrent Corporation sabe que el modelo de acceso a Internet medido mediante planes de servicios promovido por Free Press daña severamente el uso de su aplicación y su modelo de negocio y ésta es la razón por la que que están trabajando junto a los proveedores de servicios de Internet. BitTorrent empezará a etiquetar claramente su propio tráfico P2P en lugar de ocultar sus cabeceras de protocolo como la mayoría de los clientes P2P para que los operadores de red puedan gestionarles adecuadamente. BitTorrent también está trabajando estrechamente con el grupo de trabajo P4P encargado de formular criterios de selección a los clientes P2P más eficiente según la cercanía a sus pares en lugar de al azar con el objetivo de reducir al mínimo la carga en la red. Por último, KK BitTorrent, la filial de BitTorrent en el mercado japonés, fue parte de un reciente grupo de trabajo de proveedores de servicios de Internet y desarrolladores de aplicaciones en Japón que ha desarrollado una guía de “mejores prácticas” para la configuración del reconocimiento de tráfico frente a la mera adición de la capacidad de la red ya que ha quedado demostrado que no es la forma de corregir un problema como éste surgido a partir de un tipo de aplicación diseñada para consumir toda la capacidad disponible en la red.

¿Cómo definir lo que es una “razonable gestión de la red”?

La “no-gestión” de la red es seguramente la peor forma de gestionar una red, ya que permite un 10% de los usuarios puedan utilizar el ancho de banda de forma que el 90% de los usuarios se quedan únicamente con el 25% de los recursos.

¿Qué importa si se trata de una pequeña minoría de usuarios los que realizan la mencionada “canibalización” o una empresa?

¿No es acaso mayor la cantidad de daño que están perpetrando a un ingente número de abonados?

Free Press sostiene que un acceso a Internet contabilizado pero agnóstico por protocolo por usuario, o la “no-gestión de la red” (aunque reseteando paquetes al azar), serían mejores que la regulación de protocolos que emplean los métodos de priorización mediante resets TCP. Si bien todos podemos estar de acuerdo en que debemos avanzar en el modelo de gestión de red agnóstico por protocolo por usuario se base en la equidad y sería perjudicial para la inmensa mayoría de los consumidores si insistimos en su perfección de inmediato prohibiendo hoy algo que sería en su mayor parte justo y razonable para la mayoría. El mercado ya se está moviendo hacia una nueva red con técnicas de gestión avanzadas y debemos darle la oportunidad de madurar.
  

La gestión de la red asegura una convivencia armoniosa

Como ha demostrado la experiencia con la banda ancha en Japón, nunca vamos a tener suficiente ancho de banda por lo que no es ésta la forma de salir de la congestión. La gestión de la red puede garantizar una convivencia armoniosa, donde las aplicaciones P2P y las tradicionales e incluso las interactivas y en tiempo real pueden obtener lo que precisan. Con demasiada frecuencia, los defensores (habitualmente no-técnicos) de la neutralidad de red confunden el rendimiento de la red con la prioridad en la red cuando en realidad no tienen nada que ver unos con otros.

Las aplicaciones P2P siempre consumen la mayor parte del volumen de tráfico, sin embargo pueden tener todo el volumen del mundo, incluso aunque tengan la menor prioridad. Las aplicaciones interactivas y/o en tiempo real fundamentalmente tienen un bajo volumen de requisitos y no hay razón por la que no deberían tener la máxima prioridad. No hay ninguna diferencia para una aplicación P2P si envían en una ráfaga de mayor prioridad paquetes interactivos o en tiempo real ya que no por ello van a conseguir llegar antes. Las aplicaciones interactivas y/o en tiempo real sólo precisan una pequeña cantidad fija de datos para transportar por lo que la cantidad de datos que deben desplazar las grandes transferencias de archivos P2P se mantiene constante independientemente de la prioridad otorgada a las cargas útiles más pequeñas.

Las transferencias de archivos P2P seguirán terminando en la misma cantidad de tiempo tanto si iba a tardar una hora o un día, sin embargo tener mayor prioridad diferencia completamente a la aplicación interactiva y/o en tiempo real porque un ser humano está a la espera de una respuesta inmediata y la voz o las aplicaciones de juegos no pueden tolerar que los retrasos sean algo más que una décima de segundo.Por lo tanto, con la gestión de la red, las aplicaciones en segundo plano como P2P pueden obtener todo el volumen de tráfico que precisan en el mismo momento oportuno sin necesidad de imponer medidas draconianas de precios.

Las aplicaciones interactivas y/o en tiempo real obtienen la prioridad necesaria a fin de que no verse “ahogadas” por las aplicaciones P2P, pero sin la gestión de la red, independientemente de cuánta capacidad inyectemos en el problema, las aplicaciones P2P no funcionarán mucho más rápido sino que ahogarán a las aplicaciones interactivas y/o en tiempo real de Internet.

Conclusión

La industria de la gestión de redes está haciendo un gran esfuerzo para mejorar la gestión del tráfico de red. La industria se enfrenta a una dura colina hasta hasta conseguir educar a los consumidores sobre los servicios que ofrecen, sus limitaciones y sus condiciones de uso, porque no todos somos ingenieros dedicados a las redes de telecomunicaciones. Quizás el peor efecto secundario de la actual controversia sobre la gestión de P2P es el gran número de falsas y engañosas noticias acerca de la ingeniería de red que se han convertido en parte del debate público. Debemos ser especialmente conscientes de la necesaria labor de educación del gran público hacia una verdadera comprensión de Internet y sus propiedades únicas en comparación con la red telefónica tradicional.

72 replies on “Canibalizando el ancho de banda de la red”

El canibalismo de la red de banda ancha de Internet, es debido al uso de sistemas en los cuales se comparte información mediante P2P y FTP, estos sistemas agraden en cierta parte a todos los usuarios de Internet ya que absorben el ancho de banda de todos los usuarios, además vulneran las licencias como Licencia GNU, Licencia Creative Commons, Licencia Copyleft, Copyright, derechos de autor y de derecho de la propiedad intelectual.
http://es.wikipedia.org/wiki/Historia_de_las_aplicaciones_P2P
http://es.wikipedia.org/wiki/Copyright
Pero la realidad quien mas y quien menos ha usado y usa estos sistemas para la descarga de distintos contenidos, pensando en aprovechar al máximo el dinero gastado en el servicio contratado de Internet, el cual, también sea dicho deja mucho que desear en cuanto a velocidad/precio si lo comparamos con otros países Suecia, Holanda, Reino Unido, y mucho mas si hablamos de Japón y EEUU
http://www.adslzone.net/article1084.html
En conclusión se trata de dar un uso mas responsable de este servicio, aunque esto se convierte en un tema mas ético que legal como piensan otras muchas personas que dicen: “el ejercicio de un derecho fundamental como es el del libre acceso a la cultura o, en su defecto, el de un sistema de acceso justo, equitativo para creadores y consumidores, limpio y transparente. El nuevo lema es todo un ejercicio de demagogia: ‘Contra la piratería, defiende tu cultura‘. “

Puntos: 2

He estado buscando sobre la crisis que puede afectar a internet, y yo creo que nos afecta a nosotros más, que a internet… jeje.
He encontrado unos enlaces en los que para nada se habla de crisis en internet.

La red crece como mercado de consumo entre los españoles, sobre todo jóvenes:
http://es.noticias.yahoo.com/efe/20080517/tso-la-red-crece-como-mercado-de-consumo-5bc9ac5.html

Internet no acusa la crisis:
http://www.theinquirer.es/2008/05/18/internet_no_acusa_la_crisis.html

Ahora bien, si hablamos de crisis de internet, como tecnología, con sus infraestructura, he encontrado una noticia bastante interesante. En la que sus primeras lineas son:

La falta de direcciones IP llevará al colapso de internet en el año 2011
1274 días, 7 horas, 57 minutos, 17 segundos, 16, 15, 14, 13… Era el tiempo que marcaba antes de ayer, a la hora de escribir estas líneas, el contador del IPv6 Forum. El tiempo exacto que queda, según los expertos, para el colapso de internet. […]
Donde se comenta principalmente que el problema es la incompatibilidad entre protocolos: la actual versión (IPv4) a la nueva IPv6.
http://www.abc.es/20080526/tecnologia-internet/falta-direcciones-llevara-colapso_200805260301.html

Por otro lado, he encontrado otro articulo, en el que se habla del colapso de la red por “culpa” de la demanda del video en alta definición…
Internet (así como está ahora) colapsará en 2 años

Recientes declaraciones de Jim Cicconi, vicepresidente de asuntos jurídicos de AT&T hacen sonar la alarma de alerta respecto a la inminente llegada de la saturación de Internet para el 2010 al afimar que “dentro de 3 años, 20 hogares típicos generarán el mismo nivel de tráfico digital que toda Internet hace actualmente… alcanzaremos la capacidad física de Internet para el año 2010″.

Para resolver tal contingencia sería necesario invertir un estimado de 55,000 millones de dólares en nuevas infraestructuras, o de 130,000 millones para alcanzar una mejoría a escala blobal.

Añade Cicconi que uno de los “culpables” es la demanda en aumento de video en alta definición. Para tener una idea de la magnitud, cada minuto se añaden mundialmente 8 horas de video a Youtube -sí, 1 día en Youtube equivale a casi un año y cuatro meses de grabación-, en 2 años abarcará la transmisión de video el 80 % del tráfico en Internet.
http://blocly.com/colapso-de-la-red/gmx-tag347-nit40.htm

Para terminar os dejo otra noticia que también habla sobre el tema:
¿Se colapsa Internet?
La proliferación de los contenidos de vídeo y la supuesta incapacidad de los sistemas para soportar el creciente tráfico reabre el debate sobre la Red de dos velocidades.
Es interesante leer que el número de internautas se ha duplicado en cinco años. El tráfico se ha multiplicado por ocho.
Esta noticia la podeis consultar en http://www.publico.es/ciencias/077979/se/colapsa/internet

Ya veremos como acaba todo esto… por ahora, nos toca esperar…

Puntos: 2

Pienso que las medidas contra el canibalismo como capar las conexiones para la bajada deberían ser adoptadas por muchas de las empresas de telefonía para evitar todo este tipo de problemas. Como por ejemplo la que tiene ono desde hace mucho tiempo. El futuro de “bajar cosas desde internet” son las paginas como:
http://www.seriesyonkis.com
http://www.tu.tv

Estas Webs rozan la ilegalidad ya que atentan contra los derechos de autor pero si todos utilizaramos este tipo de webs para ver peliculas/series evitariamos tener los programas de p2p descargando todo el día.
¿ Que opinais?

Puntos: 4

Vaya acabo de ver que han salido todos mis comentarios…. ayer estuve intentando postear y no salian e hice varias pruebas. Siento las molestias

Jarf3, opino que lo que dices esta bien, pero si el problema de la crisis reside en que cada vez hay menos direcciones ip’s disponibles para todos los aparatos que se conectan a internet, lo que dices no sirve para nada. Si no se le puede asignar una dirección IP, no puede tener acceso a internet y por lo tanto da igual que utilices p2p que no.

Puntos: 2.

jarf3 pienso que hay demasiada gente que utiliza p2p y/o descarga grandes archivos de internet como para que las compañias caparan las conexiones para la bajada, el revuelo que se montaría sería bien gordo, pienso que el camino a seguir va por otra dirección, no pienso que eso sea la solución y estoy totalmente de acuerdo con npn

Puntos: 2

Estoy de acuerdo con npn y con dea, realmente limitar el p2p no creo que sea una solución probable a día de hoy. Aqui dejo otra noticia referente al tema del colapso y cito algo a destacar:

“La solución pasa por invertir 130.000 millones de dólares para nuevas infraestructuras. Sin embargo, el director general de Weblogs SL y experto en Internet Julio Alonso, consultado por Público, asegura que “si no invierten, la red no se colapsará. Simplemente irá más despacio”.”

http://www.20minutos.es/noticia/375783/0/internet/video/colapso/

La solución será invertir en infraestructuras como siempre, para nada castigar a los usuarios de p2p, si por lo que fuera se limitara(o inhabilitara) el p2p me imagino los faxes de las teleoperadoras echando humo recibiendo las bajas de los clientes, y no creo que las empresas de telecomunicaciones quieran eso.

Puntos : 2

Por otra parte he encontrado que se está desarrollando ” una nueva tecnología de software para la distribución de contenidos de audio que reduce el consumo de ancho de banda hasta en un 96%”

http://www.splitcast.net/

Bien es cierto, que a pesar de hacerse alusión de ella en varios blogs, la página principal que es la que nos debería explicar a que consiste a grandes rasgos, bajo mi punto de vista deja bastante que desear.

Puntos: 2

npn yo no me refería al problema de las IP yo me refería a la descripción inicial del título que dice que los programas de p2p estan generando los problemas. Ese es el verdadero problema por eso el termindo “canibalismo”, el problema de los direccionamientos de ip no hace referencia ninguna a ese problema y por tanto seria otro problema a tratar.

Puntos 2

Síntesis de la información previa desde el último resumen(por si a alguien no le apetece leerselo todo):

-A unos les parece injusto que sus recursos de red se vean afectados disminuyendo

su “capacidad” de búsqueda y descarga de documentación porque otros usuarios estén utilizando internet para descargarse películas, etc.

-Según dicen habría que pagar cada uno de según use la red para determinadas descargas, consultas…es decir pagar por lo que gastas según una tarifa especificada para cada uso.

-Otros opinán que es injusto estar pagando por unos servicios(como es la velocidad del ancho de banda) que te ofrecen las compañias y después como dichas compañias ven que no pueden con lo comprometido en respecto a las velocidades, nos censuran la línea.

– Las compañias que realmente dependen de telefonica (le alquilan la linea)
no sufren estos tipos de reducciones.

-Hay otros que opinán que el problema no reside en los canibales del ancho de banda de la red sino en las empresas que solo quieren clientes y vender como sea.
Cada cuál gasta lo que paga como quiere, utilizando internet con descargas de películas, correo…aprovechandose al máximo.
Depende de cada persona el uso que le haga a internet, estará más satisfecho o menos con este problema citado.

-El problema de la congestión de red deberia hacerse por todas las compañías al mismo tiempo, aunque siempre el que sale perdiendo es el consumidor(eso de que el que paga manda es simplemente un dicho y en muchas ocasiones no es verdad, sino e aquí la demostración).

-Es muy difícil concienciar a la gente que solo gaste Internet para lo imprescindible.

-Una solución para el colapso seria invertir con el find de adecuar la infraestructura a la demanda , pero esto supondría una suma de dinerio increible.

-La historia de Tim Berners-Lee: unió Internet y el hipertexto (HTTP y HTML), de lo que surgió World Wide Web y el primer servidor Web al que llamó httpd (HyperText Transfer Protocol daemon).

-CERN es la Organización Europea para la Investigación Nuclear. Se trata del mayor laboratorio de investigación en Física de partículas a nivel mundial.
The Grid es una red de comunicación y procesamiento distrubuidos en varios servidores alrededor de todo el mundo que es 10.000 veces más rápido que la Internet actual, desarrollada por CERN.

-Según “Paul Mockapetris, inventor del Sistema de Nombres de dominio (DNS), Vista podría reducir la velocidad de tráfico en Internet”.

– Según Forbes la capacidad de la Internet se ha copado por el crecimiento de los usuarios en los últimos años y el desmesurado crecimiento de lugares de transmisión de datos .

-Se le ha puesto un año incluso al colapso de Internet, será en el 2011 debido a la falta de direcciones IP.También dicen que en el 2010(cada uno dice una cosa) debido a la subida de videos por ejemplo en youtube.

-El número de internautas se ha duplicado en cinco añosy el tráfico se ha multiplicado por ocho.

-Se está desarrollando una nueva tecnología de software para la distribución de contenidos de audio que reduce el consumo de ancho de banda hasta en un 96%.

Puntos:5

Opinión:

Es injusto por un lado, que por el hecho de tener dinero se pueda hacer lo que se venga en gana.
Si nosotros estamos pagando lo mismo por Internet, deberia ser para todos lo mismo.
Es realmente el gobierno el que no deberia permitir estas discriminaciones.

Aunque por otro lado, a todo el mundo le interesa pagar poco y bajarse mucho y cuanto más rápido mejor, así es que me considero en una posición neutral.

Puntos:0,5

Bueno, para empezar diría que el colapso no pasara ya que también decían que lo mismo pasaría a finales 2007, y no paso nada de eso. Aquí pongo algunos links de noticias diciendo el colapso del 2007:

http://www.rionegro.com.ar/diario/2007/05/17/20075v17s25.php
http://blog.networkec.com/2007/05/12/preveen-posible-colapso-de-internet-a-finales-de-2007-debido-al-excesivo-almacenamiento-digital-de-datos/

También se dice que el P2P salvara el colapso de internet:
http://www.pocointeresante.net/blog/2007/06/el-p2p-salvaria-el-colapso-de-internet/

Respecto a que en 2011 habrá un colapso:
http://www.consumer.es/web/es/tecnologia/2008/05/26/177256.php

También es cierto que respecto a las últimas tarifas de conexiones, son prácticamente mentira, ya que te ofrecen un ancho de banda, que prácticamente nunca es cierto, ya que te ofrecen algo y nunca es real, por la situación donde vivas
puede que no te llegue ni la mitad de lo que te ofrecen, y eso si te llega, que hay compañías que según donde vivas te pueden ofrecer o no sus servicios, como por ejemplo ONO.

Puntos: 4

Realmente yo también pienso como fgr8, no creo que al final vaya a haber colapso alguno, como bien ha demostrado con los enlaces sobre los que profetizaban que dicho colapso se produciría a finales del 2007 y al final nada de nada. Pero también pienso que en cierta medida es bueno que se difundan estas ideas “alarmistas”, puesto que nos hacen tomar medidas para evitar que sucedan estas cosas. Es como con lo del Efecto 2000, que se insinuó tanto que iba a ser una catástrofe que nos pusimos las pilas y al final no pasó nada.

Puntos: 0.5

Jo, sincerament, tinc molts dubtes sobre aquest tema. Sí que és deveres que el fet què les persones que utilitzen P2P de forma abusiva estan perjudicant a moltes altres persones. No ho discutisc, que conste. Però així i tot… com podem defensar que l’accés a la Xarxa, que pertany a empreses privades, siga limitat o, fins i tot, es tarifique segons lús… en benefici de qui? de Telefònica? d’Ono?

Fins i tot si estiguerem d’acord amb això, la qüestió és que, quan jo contracte la meua connexió a Internet, a mi em cobren per proporcionar-me una connexió amb unes condicions. De fet, si contracte més velocitat, em cobren més. Com em pot dir el peu provehidor de connexió que ara no podré utilitxar els meus 4Mb perquè els utilitze per a aplicacions P2P?

Ara estava llegint la resposta que va donar ONO a l’Associació d’Internautes arran de la seua demanda d’explicacions per l’ús de filtres de paquets P2P per l’empresa (http://www.internautas.org/html/2958.html) i, n’he estat reflexionant. Sí que estic d’acord en que es limite la banda, però no en benefici d’empreses privades.

Així doncs, ací llance una nova variable al tema: la responsabilitat de l’empresa privada en el tema. No ens enganyem, un dels booms d’ample de banda ha estat propiciat o demandat per l’ús d’aplicacions de descàrrega massiva P2P. Jo recorde que fa uns anys la gent contractava Cable-Modem per a poder posar la mula a tota la velocitat possible. Les empreses es van doblegar a aquesta necessitat i van treure ofertes amb un gran ample de banda (amb el conseqüent lucre). Ara la situació els ha sobrepassat i, realment, es fa necessari trobar algun tipus de limitacions. Però aleshores, no crec que siga just que les empreses continuen anunciant el seu gran ample de banda si no el poden acomplir i, moltissim menys, que aquestes cobren una tarifa especial a qui utilitze P2P.

Si n’hi ha una cosa que hem hagut d’aprendre amb altres temàtiques (com per exemple la construcció) és que no es pot deixar que les empreses campen a les seues amples, perquè al cap i a la fí, el seu objectiu és obtenir diners i no fer justícia. A mi em pareix bé que es limite el trànsit de paquets d’aplicacions P2P, però, sobretot, crec que aquest control s’ha de realitzar des de l’administració pública i, sobretot, que es controle que les empreses no facen una publicitat que, al cap i a la fí, es enganyosa.

Puntos: 2

En mi opinión una de las medidas contra los programas p2p sería utilizar páginas de peliculas/series online. Estas páginas rozan la ilegalidad pero no sería necesario la utilización de este tipo de programas p2p que acaparan ancho de banda.

Puntos: 0.5

Por mi punto de vista no creo que internet para mi y para todo el mundo hoy en dia que es algo importantisimo se acabe en el año 2010, A nadie le conviene el colapso, hasta los usuarios finales que solo entran a ver noticias o buscar informacion por el google o la wiki es imposible!!! que llegue ese colapso antes de que hayan hecho no solo una sino muchas soluciones como pasa con cualquier necesidad social en nuestro mundo al buscar por internet he encontrado una cosa que habla sobre un estudio de Nemertes Research Group acerca del problema, no sólo del agotamiento de las direcciones ip (que se resolverán con IPv6), sino que afecta a la infraestructura de red.
Para que este colapso no llegue los proveedores deberán invertir unos 100.000 millones de euros en generar nueva capacidad para poder soportar el crecimiento de la demanda. De no ser así, las restricciones en el ancho de banda retrasarán los avances que se puedan dar en la red porque aunque los recursos de routing y switching escalen para responder a cualquier demanda imaginable, la infraestructura de acceso no podrá soportarlo.
Os dejo un enlace al estudio completo: http://www.nemertes.com/internet_singularity_delayed_why_limits_internet_capacity_will_stifle_innovation_web?#
Estoy deacuerdo con “fgr8”, “dea” yo deria lo mismo si no estaba puesto pero para que repetirlo gracias.
un saludos a todos_!

Puntos: 2

Programas P2P (y en consecuencia los caníbales del ancho de banda), páginas de visualización de videos, aplicaciones/páginas de descarga directa, aplicaciones Torrent, entre muchas otras, están provocando que se colapse cada vez más internet. Hasta el punto que ya han puesto fecha (2011) para dicho colapso total de la misma. A causa de ello las compañías proveedoras de internet, expertos, e internautas proponen varias soluciones para que se haga un consumo equitativo del ancho de banda entre los usuarios. Con esto evitaríamos además de que no se colapse internet, que personas que pagan lo mismo por sus líneas, dispongan del mismo servicio con todo lo que ello supone, sin que unos cuantos “caníbales” consuman tanto sus recursos como los del resto y llegar al un reparto equitativo y neturalidad de la red. Algunas de las soluciones propuestas se listan resumidamente a continuación:
-Tarificar el consumo según volumen de datos
-Tarificar dependiendo del consumo de recursos
-Cerrar puertos (como bien ha explicado un compañero, esta solución no tiene mucho sentido puesto que las aplicaciones pueden cambiar de puertos).
-Evitar programas p2p
-Aplicación de técnicas de reconocimiento de patrones
-Aumentar la capacidad de la línea invirtiendo en nuevas infraestructuras como por ejemplo el cableado de fibra óptica
-Filtros de cabeceras a nivel de aplicación
-Dispositivos de caching o traffic shaping
-Cobrar por el ancho de banda
-Utilización de dispositivos como PacketShaper que identifica aplicaciones P2P y realiza tareas de administración del tráfico.
-Utilización de sistemas Grid para la compartición de recursos.

Apuntar también lo que señalaba un compañero que se está desarrollando una nueva tecnología de software para la distribución de contenidos de audio que reduce el consumo de ancho de banda hasta en un 96%.

En mi opinión cortar el tráfico P2P es una solución muy drástica y que no sería nada bien acogida: Internet perdería gran parte de lo que hoy en día representa. Como usuario que paga (y que usa P2P de vez en cuando) tampoco me hace mucha gracia la idea de pagar por el volumen de datos y sus derivados. Está claro que si fuera por mí votaría por que las empresas invirtieran ese gasto ingente en nuevas infraestructuras; auque a la postre eso repercutiría igualmente en nuestros bolsillos. Yo abogo más por otras soluciones más realistas como el uso de dispositivos como PacketShaper. También me agrada la idea de formar una comunidad Grid global. A mi parecer veo difícil que se lleve a cabo pero sería lo ideal, pues con la compartición de recursos inutilizados desahogaríamos mucho la línea saturada. Por último decir que pienso igual que mis compañeros cuando dicen que al final los que saldremos perjudicados y en consecuencia nuestros bolsillos, seremos los usuarios, pues ya se encargarán los de arriba de apretarnos a nosotros para que este problema no les afecte económicamente tanto a ellos.

Puntos: 4

Pienso que es un tema muy dificil de debatir, ya que si empezamos analizando partes de este articulo, creo que los principales desinteresados por no hacer nada al respecto son las grandes compañias que hay detrás de todo esto.
Para seguir creciendo y que las compañias crezcan más y todo lo que ello conlleva, se tienen que ofrecer a los usuarios mayor ancho de banda en las comunicaciones por lo que el usuario también va exigir disponer de ese mayor ancho de banda para poder realizar descargar más rapidamente y a mayores velocidades ya que por eso pagan una cuota final de mes, lo que conlleva a más ancho de banda, mayores descargas de datos, y finalmente la congestion de la red.
Como en todo, si las tecnogias crecen, tiene que haber algo que se perjudique, por lo que no creo que la solución sea el arbol y prohibir o limitar las descargas sobre todo de grandes datos mediante P2P, archivos torrent, descargas de peliculas,musica,datos,programas,ftp…etc, sino seguir evolucionando las tecnoligas, invertir en ello para que cada vez de menos espectro y frecuencias podamos conseguir un mayor ancho de banda con el que transmitir sin saturar la red y ofrecer a los usuarios un Internet cada vez más extenso y mejor, con el que seguir creciendo tecnologicamente.
Puntos:2

Puntos: 0.5

¿Por qué decimos que el canibalizamos el ancho de banda?
esta aquí la cuestión, se canibaliza el ancho de banda porque hay un colapso de redes compartidas para evitar esto lo que hay que hacer es tener los recursos centralizados, uno de estos recursos son los protocolos P2P.
cuando un usuario tiene internet lo primero que hace es empezar a descargarse toda la “mierda”,(perdon por la expresión), es decir que si videos, musica, etc etc, del eMule, esto lo que hace es relentizar el ancho de banda.
una de las cosas que se pueden hacer para que no se canibalice nuestro ancho de banda es utilizar la aplicación MLDonkey, a ver yo no lo he utilizado nunca, porque tampoco tengo mucho tiempo por estar bajandome peliculas, y musica y cosas, pero por lo que he leido en foros, y paginas de internet, permite la conexión a torrent, Edonkey, kazzaa, etc, y puedes apagar tu ordenador y dejar el fichero bajandose.
y otra ventaja es que si dos usuarios estan bajandose el mismo fichero, o la misma cancion, peli, etc… pueden compartir el mismo fichero de forma que se optimiza la conexión
asi que os animo a que os bajeis el MLDonkey si no quereis canibalizar vuestro ancho de banda, yo me voy a ponerlo en practica.

Comments are closed.