Warnings of ‘internet overload’

Fuente: BBC News

As the flood of data across the internet continues to increase, there are those that say sometime soon it is going to collapse under its own weight. But that is what they said last year.

Back in the early 90s, those of us that were online were just sending text e-mails of a few bytes each, traffic across the main US data lines was estimated at a few terabytes a month, steadily doubling every year.

But the mid 90s saw the arrival of picture-rich websites, and the invention of the MP3. Suddenly each net user wanted megabytes of pictures and music, and the monthly traffic figure exploded.

For the next few years we saw more steady growth with traffic again roughly doubling every year.

But since 2003, we have seen another change in the way we use the net. The YouTube generation want to stream video, and download gigabytes of data in one go.

“In one day, YouTube sends data equivalent to 75 billion e-mails; so it’s clearly very different,” said Phil Smith, head of technology and corporate marketing at Cisco Systems.

“The network is growing up, is starting to get more capacity than it ever had, but it is a challenge.

“Video is real-time, it needs to not have mistakes or errors. E-mail can be a little slow. You wouldn’t notice if it was 11 seconds rather than 10, but you would notice that on a video.”

Spending our inheritance

Perhaps unsurprisingly, every year someone says the internet is going to collapse under the weight of the traffic.

Looking at the figures, that seems a reasonable prediction.

“Back in the days of the dotcom boom in the late 90s, billions of dollars were invested around the world in laying cables,” said net expert Bill Thompson.

“Then there was the crash of 2000 and since then we’ve been spending that inheritance, using that capacity, growing services to fill the space that was left over by all those companies that went out of business.”

(Continúa)

Mapping the Internet: Routing traffic through peer-to-peer networks could stave off Internet congestion, according to a new study

Fuente: Technology Review

The increased use of peer-to-peer communications could improve the overall capacity of the Internet and make it run much more smoothly. That’s the conclusion of a novel study mapping the structure of the Internet.

It’s the first study to look at how the Internet is organized in terms of function, as well as how it’s connected, says Shai Carmi, a physicist who took part in the research at the Bar Ilan University, in Israel. “This gives the most complete picture of the Internet available today,” he says.

While efforts have been made previously to plot the topological structure in terms of the connections between Internet nodes–computer networks or Internet Service Providers that act as relay stations for carrying information about the Net–none have taken into account the role that these connections play. “Some nodes may not be as important as other nodes,” says Carmi.

The researchers’ results depict the Internet as consisting of a dense core of 80 or so critical nodes surrounded by an outer shell of 5,000 sparsely connected, isolated nodes that are very much dependent upon this core. Separating the core from the outer shell are approximately 15,000 peer-connected and self-sufficient nodes.

Take away the core, and an interesting thing happens: about 30 percent of the nodes from the outer shell become completely cut off. But the remaining 70 percent can continue communicating because the middle region has enough peer-connected nodes to bypass the core.

With the core connected, any node is able to communicate with any other node within about four links. “If the core is removed, it takes about seven or eight links,” says Carmi. It’s a slower trip, but the data still gets there. Carmi believes we should take advantage of these alternate pathways to try to stop the core of the Internet from clogging up. “It can improve the efficiency of the Internet because the core would be less congested,” he says.

To build their map of the Internet, published in the latest issue of the Proceedings of the National Academy of Sciences, the researchers enlisted the assistance of 5,000 online volunteers who downloaded a program to help identify the connections between the 20,000 known nodes.

The distributed program sends information requests, or pings, to other parts of the Internet and records the route of the information on each journey.

Previous efforts had relied upon only a few dozen large computers to carry out this task, says Carmi. But by using this distributed approach, which meant collecting up to six million measurements a day over a period of two years from thousands of observation points around the world, it was possible to reveal more connections, says Scott Kirkpatrick, a professor of computer science and engineering at the Hebrew University of Jerusalem, who also took part in the study. In fact, the project has already identified about 20 percent more of the interconnections between Internet nodes than ever before.

(Continúa)

El congreso reajusta su nueva web tras el aluvión de críticas

Fuente: elpais.com 18/06/07

La puesta en marcha de la nueva web del congreso (www.congreso.es) ha traído un aluvión de críticas en sus primeros días de funcionamiento, pero sus responsables niegan que exista cualquier fallo de seguridad.

“Es cierto que estamos realizando algunos ajustes para que funcione correctamente con todos los navegadores y resolviendo otras cuestiones, pero en ningún momento la seguridad ha estado comprometida”, aseguran fuentes oficiales de la Cámara Baja.

La Asociación de Internautas denunció que el diseño del sitio permitía acceder a ciertas zonas reservadas a los administradores, como las opciones de configuración, algo que niegan tajantemente desde el congreso de los diputados. Según sus responsables, las herramientas que quedaban a la vista de los internautas eran sólo unos programas de ayuda de la aplicación de Oracle, que ya se han ocultado, al igual que el árbol del servidor. “Es cierto que no queda bien pero sólo es una cuestión estética y no supone ningún problema de seguridad”, subrayan fuentes oficiales.

En cuanto al presupuesto de 14 millones de euros destinados a la modernización del congreso responden a un programa de seis años dentro del Plan Avanza durante los cuales que se va a cambiar todos los equipos informáticos y se va a proceder a la digitalización de todos los archivos desde las Cortes de Cádiz.

La puesta en marcha de los cinco nuevos portales, en el que se incluye el del congreso, uno dedicado a los diputados, otro para los distintos grupos parlamentarios, otro de empleados y un último dedicado al conocimiento, suponen una inversión que no llega a los 200.000 euros.

En cualquier caso, la web del congreso va a vivir un momento de puesta a punto en sus primeros días de funcionamiento para corregir cualquier problema que vaya surgiendo.

Fallos de diseño y seguridad en la nueva ‘web’ del Congreso

Fuente: elpais.com 17/06/07

La nueva web del Congreso de los Diputados, presentada el miércoles por el presidente de la Cámara Baja, ha recibido duras críticas por parte de expertos en diseño e internautas, que han detectado errores cuando la página se consulta con navegadores como Opera o Firefox, y señalan que el sitio no respeta varios principios de accesibilidad. A ellos se ha unido la Asociación de Internautas (AI), que alerta sobre varios problemas de seguridad.

La Comisión de Seguridad en la Red de la Asociación de Internautas (AI) ha publicado un comunicado en el que se explica que cualquier ciudadano puede acceder a directorios ocultos y a opciones de configuración de la página del Congreso, zonas del sitio en las que, sólo tienen permitida la entrada los administradores del sitio.

Es una más de las críticas que le llueven al sitio desde que el nuevo diseño fuera presentado por el presidente del Congreso, Manuel Marín. Desde la nueva página web de la Cámara Baja se puede acceder a las intervenciones de todos los diputados, seguir en directo un pleno o una comisión o conocer las últimas iniciativas parlamentarias.

Pero de lo que se habla estos días en la Red es de fallos de diseño, omisiones, y problemas de seguridad. El sitio especializado en seguridad Kriptópolis cuenta por ejemplo que el ‘Buscador de Iniciativas’ “devuelve resultados disparatados cuando se realiza alguna búsqueda mediante Firefox, tanto en Linux como en Windows. Sin embargo, y para más inri, los resultados de las búsquedas son correctos cuando se utiliza Microsoft Internet Explorer”.

Andrés Nieto, programador y experto en desarrollo web, hace un repaso al diseño de la página en su blog en el que señala que éste no respeta aspectos básicos para hacer un sitio accesible, esto es, que pueda ser consultado por cualquiera desde cualquier dispositivo o navegador en igualdad de condiciones.

Además de la página del Congreso, próximamente se lanzará la primera versión de los portales del diputado, de los grupos parlamentarios, del ciudadanos y del conocimiento. La Cámara trabaja también en la digitalización de todo su archivo, que incluirá un catálogo de leyes, y está elaborando también el primer “diccionario parlamentario español”, en ese caso con la colaboración de la Academia de la Historia y varias universidades.