Categories
Redes de datos Telecomunicaciones

Cumpleaños feliz y finalización del curso

Tal y como comenzamos el curso felicitando el aniversario de WordPress lo vamos a ir acabando celebrando el aniversario de Ethernet. 

Precisamente un día como hoy 22 de mayo de 1973, Bob Metcalfe del Palo Alto Research Center (PARC) de Xerox presentaba el informe “Alto Ethernet” describiendo cómo conectar los nuevos ordenadores a una impresora compartida (la primera impresora láser para más señas). Este informe marcó las propiedades más básicas así como la famosa nomenclatura como podéis ver en la imagen incluida en el informe:

Esquema informe original Ethernet

Más tarde, en 1976, introdujo este diseño inicial de cómo tendrían que ser las partes fundamentales de las tarjetas de red de los nodos de red:

Esquema Ethernet 1976

 

 

 

 

 

 

 

Si queréis conocer más cosas acerca de  Bob Metcalfe y los inicios de Ethernet, os recomiendo este artículo de Wired. Os dejo con un vídeo de Metcalfe con subtítulos en castellano (para que podáis verle la cara).

Categories
Redes de datos SST

Canibalizando el ancho de banda de la red

Como siguiente actividad a través del blog de la asignatura se propone el análisis de la siguiente problemática relativa al ancho de banda de Internet:  

Anteriores crisis en Internet

Internet es un estándar en evolución que ha sufrido múltiples problemas para su crecimiento y continúa haciéndoles frente a día de hoy. El aumento del FTP (File Transfer Protocol) causó el “colapso por congestión” de 1986 debido a que la Internet en aquel momento carecía de un mecanismo funcional que evitase la congestión. Esto fue parcheado en 1987 por Van Jacobson (co-autor de traceroute y tcpdump entre otras) con su algoritmo para evitar la congestión que asignaba de forma equitativa los recursos de la red a las aplicaciones. A pesar de que han aparecido nuevas y más eficientes formas de control de la congestión, el algoritmo de Van Jacobson se ha mantenido durante más de 20 años.A mediados de los 90, el aumento de la navegación web había convertido la “World Wide Web” a la “World Wide Wait” debido a que la primera generación de navegadores web no se había para la utilización de los recursos de forma optimizada hasta el paso de HTTP de la versión 1.0 a la 1.1.

La crisis de hoy en Internet

Hoy nos enfrentamos a un nuevo problema. Las aplicaciones P2P (Peer-to-Peer) están provocando un nuevo colapso por congestión ya que la difusión (broadcast) de video (incluso con las novedades ofrecidas desde la BBC y RTVE) está migrando hacia un modelo de VoD (Video on Demand) a través de Internet. Debido a las lagunas existentes en el estándar TCP, un pequeño porcentaje de usuarios que utilizan P2P están apropiándose de la inmensa mayoría de la capacidad de la red a expensas de todos los demás consumidores. Aplicaciones interactivas como la navegación web o aplicaciones de tiempo real como la voz sobre IP están siendo degradadas innecesariamente no por las operadoras sino por los usuarios de P2P.En Japón, con una de las infraestructuras de acceso de banda ancha a Internet más rápida del mundo, donde muchos hogares tienen acceso a 100 Mbps o incluso 1000 Mbps mediante fibra óptica se enfrentan al mismo colapso inducido por la congestión P2P. Esto ha hecho que su gobierno haya dedicado bastantes recursos durante los últimos dos años para estudiar el tema. Recientemente, el Ministerio japonés de Asuntos Internos y Comunicaciones publicó un estudio que muestra que tan sólo el 1% de usuarios de banda ancha utilizando P2P de Japón contabiliza (en adelante, “canibaliza”) con aproximadamente el 47% del uso de Internet de todo Japón. Por otra parte, sólo el 10% de Japón de usuarios de banda ancha utilizando P2P “canibaliza”, en promedio, el 75% de toda la utilización global de todo Internet.  

Esto sería como si 10 pasajeros de un avión de 100 asientos ocupasen 75 asientos y obligaran a los otros 90 pasajeros a compartir los 25 asientos restantes. Uno de esos 10 pasajeros podría tener hasta 47 asientos, mientras que los otros 9 tendrían hasta 28 escaños.  Es perfectamente aceptable que 10 personas ocupen 75 asientos (equipaje de mano, abrigos, portátiles,…) mientras únicamente haya 25 personas en el avión que se conformen con un único asiento sin embargo es completamente injusto cuando hay 90 pasajeros, que han pagado al igual que los primeros su billete, poder sentarse únicamente en 25 asientos. Habría que decirle a esas 10 personas que utilicen los espacios a sus pies para las bolsas a fin de que otros pasajeros puedan sentarse. Sin embargo, en Internet no es tan fácil para todo el mundo ver lo que realmente pasa, los “caníbales” del ancho de banda gritan “discriminación” y persuaden a la comunidad a retratarse como las víctimas del mal y a pensar que están siendo privados de sus derechos civiles. Si alguien se atreve a decelerar su consumo excesivo de alguna manera, ponen demandas de billones de dólares (y para eso hace falta tener los recursos necesarios). Pero no hay nada neutral o imparcial en lo que estos grupos están pidiendo y no son tan protectores de los derechos de los consumidores como se jactan a sí mismos de ser.

Categories
Redes de datos SST Telecomunicaciones

Redes de Nueva Generación (NGN): Cómo la fibra óptica llegará hasta casa

Es indudable que el proceso de sustitución de los cableados de cobre por los de fibra óptica y la migración a redes ‘todo-IP’ no ocurrirá de forma inmediata, sino que será un proceso que durará varios años y cuyo ritmo dependerá de un buen número de factores:

  • Ritmo y extensión del despliegue 

  • Grado de competencia

  • Capacidad inversora de los operadores

  • Facilidades para la compartición

  • Acceso a infraestructuras de obra civil (canalizaciones, arquetas, postes, armarios etc.)

  • Facilidad de ocupación del domino público, los nuevos desarrollos tecnológicos y de estándares

  • Demanda de servicios con altas tasas de velocidad

  • Evolución de la regulación, tanto de las comunicaciones electrónicas como del acceso a los contenidos.

Para llevar a cabo esta ingente inversión (os recuerdo que actualmente hay más de 750 millones de pares de cobre instalados en todo el mundo y a 4 personas por vivienda pueden dar servicio a más de 3000 millones de personas) implica analizar si se puede continuar de la misma manera que en la actualidad, es decir,  con el mismo modelo de administración/compartición de la red tradicional de cobre para estas nuevas redes NGN que, por cierto, no las instalará el Estado sino las empresas privadas como sucedió con la de cobre.

La Comisión del Mercado de las Telecomunicaciones tiene la política de realizar consultas públicas para recabar el pulso de las empresas, particulares y agentes del sector sobre diferentes temas de actualidad. Así es como proporcionó a través de su página un primer documento en el cual plantea una serie de cuestiones que como ingenieros debemos ser capaces de comprender, analizar e incluso responder.

La información que precisáis para responder las preguntas se encuentra disponible tanto en este documento como en la documentación presente en la Sesiones Docentes de Campus Virtual y si aún así os parece que no sabéis cómo o por dónde empezar, aquí tenéis los informes con las respuestas generados por agentes del sector de las telecomunicaciones tan dispares como el Colegio de Ingenieros Técnicos de Telecomunicación de la Comunidad ValencianaAlcatel-Lucent, ONO, la Generalitat de Catalunya o el Partido Pirata. Ya que esta información es la más fidedigna que podéis disponer, a partir de ahora, ésta será la justificación documental por la que se valoran los comentarios.

No tenéis que contestar en cada comentario a todas las preguntas (son más de 50) sino que podéis escoger cuál o cuáles queréis tratar en vuestro comentario y, sí, podéis comentar sobre preguntas que ya hayan sido comentadas por vuestros compañeros previamente.

Categories
Redes de datos SST Telecomunicaciones Telefonía Televisión

Google consigue su objetivo (una vez más)

Precisamente el último día (18 de marzo) antes del parón de Semana Santa se acabó la puja por las bandas a 700MHz que quedarán libres en EE.UU. a partir del apagón analógico.

La cobertura de este hecho ha sido bastante intensiva, principalmente como es lógico, al otro lado del charco. Primero se anunció el cierre de la puja (habiendo alcanzado los 19.6 miles de millones de dólares, billones para los americanos) y un par de días más tarde (New York Times, Wired, Wall Street Journal, …) quedó claro que AT&T y principalmente Verizon habían conseguido las mejores licencias.

Verizon obtuvo las seis grandes licencias regionales del bloque C las cuales le dan una cobertura a nivel de todo EE.UU.. Además ganó 77 licencias menores del bloque B. AT&T consiguió 227 de estas licencias menores, las cuales le servirán para tener rellenar zonas de mala cobertura. No sólo operadores de telefonía y datos, también Echostar un proveedor de TV por satélite ha obtenido suficientes licencias para ofrecer un servicio a nivel nacional.

Sólo mencionar que el bloque D de licencias no ha alcanzado el mínimo que puso la FCC para realizar las concesiones por lo que tendrá que realizarse en el futuro una nueva puja específica.

Visto todo lo anterior, ¿cuántas licencias ha conseguido Google? Cero. Entonces, ¿por qué Google ha conseguido su objetivo? Precisamente lo ha conseguido porque ha perdido.

Google pujó hasta 4.6 billones (americanos) de dólares que es precisamente la cifra mínima a la que había que llegar según las normas de la puja con la que se obliga al ganador de la licencia a que la red que monte sea abierta para que puedan acceder todo tipo de dispositivos así como otras reglas de apertura relativas a las aplicaciones.

Construir una red de telecomunicaciones, incluso inalámbrica como es el caso, es un negocio con un margen de beneficios mucho menor que el de la publicidad contextual y muchos accionistas de Google no lo veían muy claro (sobre todo ahora que las acciones están bajando bastante). Al poner los billones sobre la mesa Google marcó las reglas del juego que le interesaban, reglas que Verizon va a tener que cumplir. Todo lo que Google quería era que no se discriminase a sus aplicaciones y teléfonos móviles. De todas maneras, si hubiese ganado las licencias tampoco era una drama, el espectro electromagnético es un bien muy codiciado y un valor en alza.

Por último, durante la semana siguiente se volvieron a repetir las noticias acerca de la White Space Coalition que se lanzaron este verano pasado desde los blogs oficiales de Google acerca de utilizar las frecuencias que queden libres tras el apagón analógico ya que ahora sería más factible evitar las interferencias al utilizar los canales que vayan quedando vacíos de forma dinámica según la zona y ya desde febrero de 2007 estaban trabajando en dispositivos junto a Microsoft y otros.

Según la normativa sobre

Categories
SST

SST y pensar

Ahora que apenas llevamos unas semanas de curso queríamos retomar la conversación acerca de este cambio en la docencia de la asignatura que, esperamos, estéis disfrutando (y no padeciendo).

Una de las cosas que estamos tratando de conseguir en esta asignatura al plantearla en modalidad b-learning (blended-learning = semipresencial) es SUMAR las ventajas de los métodos presencial y no presencial así como tratar de ANULAR las desventajas de ambos métodos (como objetivo ideal es suficientemente atrevido).

Por lo que veo en algunos de los comentarios anteriores (1, 2, 3, …) no coincidimos en qué consiste la parte no presencial / e-learning /2.0 o, en definitiva, la innovación que se introduce aquí. Quízás sea más rápido incidir en lo que no consiste:

  • Presentaciones de diapositivas en clase y luego descargables desde Campus Virtual
  • Laboratorios de acceso remoto para realizar las prácticas
  • Grabaciones en audio y/o vídeo
  • Realizar pruebas de evaluación a través de Campus Virtual

Casi todas estas “innovaciones” las tenéis ya en esta asignatura, y en muchas otras (he conocido profesores de Humanidades que nos dan cien vueltas a los “tecnológicos” de la EPS), desde que se está impartiendo (hace ya 5 años) por lo que la palabra innovación no tiene sentido aplicarla.

Lo que estamos tratando de hacer está en línea con lo que aparece en estos dos posts (1 y 2) de Ángel Fidalgo catedrático de Minas en la UPM y profesor del curso de b-learning para profesores de la UA.

Resumiéndolo en una frase, fomentando la creación y adquisición de conocimiento, el aprendizaje, de forma colaborativa y cooperativa guiada (más que dirigida) de forma que el proceso enseñanza-aprendizaje utilizado sea capaz de adaptarse a las necesidades particulares de cada curso, cada grupo y, ojalá, cada alumno. Si pensásemos que no fuese mejor que dejar las cosas como están, como también ha aparecido en otros comentarios, tranquilos siempre tendremos el libro de texto.

Ante la preocupación por los profesores (nadie se ha preocupado por los profesionales de las empresas que también colaboran en el blog), no se me ocurre otra mejor manera de expresarlo que la que se planteó en el IV Congreso Educared y que recoge Antonio Fumero en este párrafo:

“Lo mejor, sin duda, la respuesta ante la última pregunta que Obdulio pasaba al propio Antonio acerca de la motivación de los profesores para el uso de las tecnologías digitales. Decía el ponente, desde mi punto de vista con todo el sentido del humor del mundo, que, ante esas tecnologías, se podía actuar como delante de una caja negra, es decir, usándola como tal, abriéndola a ver qué tiene dentro, …, o pensando. Pensar. ¡Qué bueno joderrrrrrr!”.

Categories
SST Telecomunicaciones Telefonía Televisión

Nuevos retos en la gestión del espectro radioeléctrico

En relación con las entradas anteriores acerca de la gestión del espectro radioeléctrico, cómo se está haciendo en EE.UU., los intereses de Google, cómo se va a hacer en la Unión Europea,… os proporcionamos las siguientes ponencias:

En este último marco también se presentó la ponencia Nuevos retos en el uso del espectro para un operador de telefonía móvil que ha sigo apuntada por pfa5 que abre una línea de conversación muy interesante desde el punto de vista de un operador de telefonía móvil al igual que el comentario de xpv  acerca del concepto del dividendo digital consecuencia de la liberación y reutilización del espectro radioeléctrico. Se han adelantado (y por tanto me han chafado la temporización) a algunos de los temas que se tratarán la semana que viene. Enhorabuena.

Categories
Telecomunicaciones Telefonía

Más Google, operador de telecomunicaciones: ¿van a usar globos?

Si hay una empresa a quien le pega montar una red de telecomunicaciones a base de globos esa es Google.

El Wall Street Journal publica que Google se ha interesado en asociarse (o comprar) la empresa Space Data Corp., una compañía que envía globos que suben pequeñas (micro) estaciones base a unas 20 millas de altura con el objetivo de dar cobertura en zonas rurales a flotas de camiones y compañías petroleras.

Nada menos que el 36% de los habitantes de zonas rurales de EE.UU. no disponen de conexión a Internet. Los globos que  lanzan tienen fecha de caducidad y explotan a las 24 horas de haber sido lanzados por lo que es necesario reponerlos de nuevo cada día. Los granjeros de la zona recogen las microestaciones base que han caído con un pequeño paracaídas a cambio de 100$ y si se encargan de volverlas a subir automáticamente mediante otro globo obtienen 50$ más. No os perdáis el vídeo.

El hecho de que Google esté pujando por el bloque de frecuencias con cobertura nacional respalda un poco esta noticia aunque de todas maneras es otro ejemplo de una compañía que dispone de más dinero que ideas en qué gastarlo. Yo, como con el GPhone, hasta que no lo vea no me lo creo pero ya están siendo demasiadas casualidades (teléfono móvil, puja por licencias, red de telecomunicaciones creativa,…)

Categories
Televisión

17 de febrero de 2009, TDT, cuernos y rabbit-ear users

El motivo de incluir también una fecha en el título del post es la relación “transatlántica” que éste tiene al respecto de la entrada anterior.

El 17 de febrero de 2009, justo hoy pero dentro de un año, es el día en el que se producirá al apagón analógico de las emisiones de TV en los EEUU. La FCC (el organismo encargado de regular las comunicaciones, algo así como nuestra CMT) ha preparado un sitio web específico con información relativa con los plazos, subvenciones, noticias, páginas en español y hasta un test que da acceso a un certificado expedido por la propia FCC (yo ya tengo el mío ;-))…

Efectivamente, resulta que en los EEUU se nos adelantan más de un año, pero como en todas partes cuecen habas lo cierto es que, según una encuesta que menciona el suplemento tecnológico del New York Times el 20/12/2007, sólo el 17% de los encuestados sabía que el apagón analógico sería el año 2009 y al 52% no sabía que se iba a cambiar la TV de analógico a digital en algún momento. Curioso el nombre que le dan a nuestras antenas de cuernos de toda la vida, las rabbit-ear antennas.

También se encuentran con los mismos problemas tecnológicos y, a nivel de usuario, David Pogue el analista tecnológico del mismo NYT recoge una queja de uno de sus lectores al respecto de las TVs de plasma y las EPGs (guías electrónicas de programación) y otro sobre la HDTV (en vísperas de la Superbowl 2008).