Categories
Ethernet

La ley de Metcalfe

La ley de Metcalfe (formulada por Robert Metcalfe, fundador de 3com y desarrollador del estándar Ethernet) dice que el valor de una red de comunicaciones aumenta proporcionalmente al cuadrado del número de usuarios del sistema (n2) (fuente: blog de Jorge Domínguez).
Esta ley se refiere al utilidad de la red desde el punto de vista de los servicios, en el sentido de que cuanto más usuarios disponga una red (por ejemplo, las famosas P2P) más utilidad encontraremos puesto que, para el ejemplo en cuestión, de más materiales disfrutaremos y más probabilidad de que exista alguna que nos sea interesante.
Sin embargo, si aplicamos esta ley a los niveles bajos de una red ethernet, los niveles que se dedican a transmitir nuestros datos, ¿será cierta? ¿debemos, por tanto, aplicarla sea cual sea el nivel de trabajo de una red?

By airc

Blog de la asignatura de Administración e Instalación de Redes de Computadores.
Se ha creado con la finalidad de convertirse en una herramienta útil para, en particular, todos los alumnos de la asignatura y, en general, para todos los interesados en temas de gestión y administración de redes de computadores

35 replies on “La ley de Metcalfe”

Bueno yo creo que a esos niveles en ethernet, lo que ocurre es lo contrario, ya que el valor no aumenta, si no que disminuye.
Esto es debido a que cuanto mayor es el número de usuarios, el número de colisiones aumenta y por tanto el rendimiento es menor.

También pienso que el caso de las redes bitorrent, lo que dice Robert Metcalfe no se cumple en muchos casos. Por ejemplo, cuando un usuario comparte por si solo un archivo, si el numero de leechers (o usuarios que desean descargarlo) es muy grande, el rendimiento será muy bajo. Por eso, aunque el número de usuarios sea grande, si las funciones no están bien repartidas, el valor de esa red es bajo.

¿Alguien opina como yo? ¿o estoy equivocado?

Creo que la ley sólo es válida considerándola desde un punto de vista muy genérico y simplificado de lo que las redes pueden ofrecer, algo así como un eslogan para “vender redes” (“…y con la TurboMix no necesitas saber cocinar…”; mentira ¡).

A mi entender, un servicio ofrecido en una red será tan útil como su disponibilidad y por lo tanto se deben considerar los niveles mas bajos de la red, que serán al final los encargado de hacer disponible ese servicio al usuario quién será el que valore la red dependiendo de lo útil que le sea. No sirve de nada tener un servicio de video, mensajería etc… si la red es incapaz de soportar su demanda en condiciones (el tener 50.000 PC´s con “chorrocientos” servicios interesantísimos y utilísimos en cada uno de ellos y conectados a una red a 1Kb/s (el ejemplo es obviamente hipotético) no tiene ningún valor real, lo mires por donde lo mires.

No.

Creo que la Ley de Metcalfe tiene sentido en el nivel de Aplicación, de hecho en los propios ejemplos de aplicación de la ley que se citan en la Wikipedia hablan de: Teléfonos, Faxes, Sistemas Operativos, Aplicaciones, etc… Funcionalidades de “alto nivel”, no a un nivel de comunicación estrictamente. Además tiene un carácter íntimamente relacionado con las redes sociales o p2p.

Si, soy de la opinión de que lo que enriquece el valor de la red es su funcionalidad (y mal que nos pese a los que nos preocupamos por el rendimiento) la funcionalidad sólo la empieza a detectar el usuario del TCP/IP en la capa de Aplicación (5, capa 7 según el modelo OSI 🙂 ). Además en el tipo de redes sociales se supone que a más gente más difusión/disponibilidad de contenidos/recursos. (La Ley de Reed revisa la ley de Metcalfe, recomendable echarle un ojo)

Otro tema es el rendimiento de esa red. Podría pasar que a causa de tanta disponibilidad de servicios (tal y como comentan mis compañeros) si el ancho de banda es muy bajo o hay inundaciones de colisiones de nada sirve tener “posibles” funcionalidades, seguro que no enriquece la red si el tiempo de respuesta es infinito.

O cueces, o enriqueces! 😀 el tema está en el equilibrio de la balanza. Tener funcionalidades no debe sacrificar (o debe sacrificar poco) el rendimiento.

…para ser mi primer comentario creo que me he tirado a la piscina…espero que tenga algo de agua 😀

En principio la La ley de Metcalfe me parece muy acertada, sobre si el crecimiento es de n2 no lo se, pero la idea que expresa es clara.
Es evidente que por ejemplo, en la gran red de redes que es Internet, a mas usuarios conectados, mas contenidos, mayor difusión y en general mucha mas riqueza cultural. Por lo tanto es una red en la que todos aportan algo.
Como ya se ha dicho, los programas p2p son el mayor ejemplo.

A niveles mas bajos, y bajo el punto de vista del usuario, yo pienso que nos es bastante indiferente el numero de usuarios conectados a la red ya que en principio deberia estar preparada para soportar un mínimo de usuarios conectados y haciendo peticiones constantes a la vez sin que la experiencia se viese mermada mas de lo normal.
Supongo que para evitar posibles sobrecargas o colapsos, detectar posibles cuellos de botella, etc, se sometera a la red a diversos tests de rendimientos para asegurar esa calidad minima.

Agradecería si alguien me pudiese aclarar si en intranets grandes como la de la UA se hace algun tipo de testeo para poder mas o menos preveer el hipotetico caso de como va a reaccionar la red en momentos extremos. 😉

Claro esta que cuando el tráfico de red sobrepase la barrera de usuarios para la que esta preparada, el rendimiento empezará a caer de forma constante y muy rapido. El nivel de colisiones no creo que sea realmente un problema ya que hoy en dia poca gente utiliza hubs y con eso el riesgo de colisiones disminuye considerablemente.

En resumen, a nivel de usuario, si la red esta preparada para un numero previsto de usuarios que en teoría nunca debería sobrepasarse, el que haya mas o menos usuarios en la red debería influir minimante en el rendimiento de esta.
A estos niveles tampoco nos aporta nada el nivel de usuarios conectados.

Pros: Ninguno (A no ser que se utilice algun sistema de compartición de archivos a nivel local)

Contras: Una posible saturación de la red si se sobrepasa el nivel de usuarios para la que esta preparada. (Si se utiliza algun tipo de p2p el trafico de red aumenta muchísimo, lo que degenera en un peor rendimiento de la red en general. Si encima hablamos de p2p que mandan y reciben trafico al exterior la cosa empeora. Los mas problemáticos en este sentido son todos aquellos que hacen uso de la red edonkey, que debido al número de conexiones que realiza empobrece muchísimo el rendimiento de una red.)

Asi que bueno, la susodicha ley no creo que sea aplicable a niveles tan bajos de ethernet.

Un saludo XD .

#5 Victor con Opnet (lo usaremos en su versión de educación en las prácticas de la asignatura) se puede realizar simulaciones de trabajo de una red con las condiciones de cargas que se estipulen para prever comportamientos de la red.

Antes de nada comentar que la organización IEEE realizó un estudio para comprobar la veracidad de la ley que nos ocupa, llegando a la conclusión de no ser absolutamente cierta, sino una aproximación en un escenario ideal, me explico: en una comunidad p2p como emule o Bittorrent, no todos los usuarios que la conforman aportan de igual manera, ya sea aportando en contenidos o generando tráfico de red.

Esta afirmación queda contemplada en la Ley de Zipf, , que enunciandola viene a decir que si ordenamos una serie de sucesos por su valor, el valor del segundo nodo será aproximadamente la mitad del primero, el tercero será la mitad del segundo y así respectivamente. Si dibujamos la gráfica que genera la progresión, obtenemos una función del orden de n*log(n), (mucho más realista que la que propuso Metcalfe).

Si la aplicamos a niveles más bajos como Ethernet, (suponiendo que todos los usuarios aportan EXACTAMENTE el mismo valor), tenemos que a mayor tránsito de información, mayor probabilidad de colisiones y a mayor número de colisiones, peor rendimiento y a peor rendimiento peor valor. Entonces llegamos a la conclusión de que la ley no es aplicable a nivel Ethernet, (aunque usemos el protocolo de acceso al medio más optimizado las colisiones son inevitables).

En mi opinión a los niveles bajos de ethernet no es cierta esta ley ya que a mayor número de usuarios más posibilidades existirán de que se produzcan colisiones.
Sin embargo, en las redes p2p puede ser correcta si todos los usuarios comparten una gran variedad de información (y si algunos usuarios tienen información en común, mejor será porque a la hora de descargar tienes varias fuentes). Pero si hay usuarios que comparten poca información o ni siquiera comparten información degradaría las cualidades de esta red p2p. También hay que tener en cuenta que la velocidad de descarga no es la misma que la de subida y por lo tanto a la hora de descargarte algún archivo de otro usuario (suponiendo que hay pocas fuentes), tan solo podremos descargar en relación de la velocidad de subida que tenga el usuario que comparte dicho archivo, lo cual no es optimo para nuestra red p2p.
Todo esto sin tener en cuenta la topología que tenga la red ethernet y la p2p.
Resumiendo…a niveles bajos de red ethernet pienso que esa ley no se cumple y a niveles de p2p se podría cumplir en el caso de que los usuarios compartan gran cantidad de información(todos los usuarios).
Alfredo M. Soro estoy de acuerdo con lo de que es “un eslogan para “
vender redes “. xDDD
Un saludo.

“Agradecería si alguien me pudiese aclarar si en intranets grandes como la de la UA se hace algun tipo de testeo para poder mas o menos preveer el hipotetico caso de como va a reaccionar la red en momentos extremos.”

Hombre yo creo que los “momentos extremos” se tienen en cuenta a la hora del diseño de la red y se idean posibles medidas para que no se pueda llegar a ese punto, ya sea filtrando o capando servicios.

¿Podría ser una de esas medidas el hecho de capar los ftp’s externos a la UA?

Desde un punto de vista teórico, la ley de Metcalfe me parece adecuada, ya que el valor, entendido como la utilidad potencial que nos provee, puede ser mucho mayor cuantas más usuarios haya conectados.

Sin embargo, esto es en teoría, donde se supone que los usuarios cooperan, ofrecen a la vez que demandan, etc. La realidad, creo que a veces es muy distinta. Muchas veces, en redes P2P, tenemos lo que han mencionado arriba: sanguijuelas. Estos usuarios no colaboran en el enriquecimiento de la red, sino que se aprovechan de los recursos que provee. Concretamente, podría decirse que se aprovecha de esta misma ley, pues cuando existen muchos usuarios, pueden pasar desapercibidos y parasitar con poco efecto en el sistema (de forma individual). El problema viene cuando esta práctica empieza a extenderse y abarca a un sector importante de usuarios. Entonces, la red sería similar a una arquitectura cliente/servidor, solo que enmascarada.

En cuanto a los niveles bajos de la red Ethernet, lo cierto es que el valor teórico podría perderse si baja el rendimiento de la red. En Ethernes el número de usuarios puede ser un problema. Si bien el uso de conmutadores evita gran parte de las colisiones, debemos tener en cuenta que sigue siendo una red de difusión y, por lo tanto, todo el tráfico de difusión afectará a las comunicaciones. Cuantos más usuarios, más intenso será este tráfico. Por ejemplo, ARP se usa constantemente para resolver las equivalencias de MAC e IP.

Como contrapartida, hago mención a la red TokenRing, donde este problema no existe, ya que el paso de testigo crea un tráfico constante donde el número de máquinas conectadas no afecta apenas. Eso sí, TokenRing no ofrece la velocidad de las últimas Ethernet y plantea otras consideraciones.

No sabía que los FTP’s estubiesen capados en la UA, los p2p si y se entiende ya que generan un tráfico inmenso y saturarían completamente la red.

Estoy de acuerdo con la mayoría de mis compañeros. Dicha ley no es del todo cierta en un entorno de intranet debido a que no todas las conexiones potenciales en una red tienen el mismo valor, es decir, los usuarios de una red, no utilizan todos los mismos servicios por igual, del mismo modo, no podemos hacer analogía de dicha ley a capas inferiores, porqué llegaría un momento en el que el sistema no podría soportar todo el tráfico que conllevaría dicho aumento de servicios/usuarios. Sí, la red sería muy rica en cuanto a valor de servicios, pero sería un servicio de bajo rendimento/calidad y, son estas dos características, junto a la usabilidad, flexibilidad, fiabilidad, las que el usuario considera más importantes para poder utilizar un servicio en red. Sin estos parámetros hay muchas garantías de que un usuario opte por abandonar tal servicio.

Buscando información y comentarios acerca de la ley de Metcalfe, véase p.e ‘http://www.bvs.sld.cu/revistas/aci/vol14_5_06/aci03506.htm’ o ‘www.virtualeduca.org/documentos/las-industrias-culturales-en-la-digitalizacion.doc’
he llegado a la conclusión de que este concepto o Ley solo es aplicable al nivel de aplicación de TCP/IP, básicamente porque, sobre niveles inferiores en una red, a mayor numero de nodos mayor tasa de error y mayor número de colisiones, con lo que se traduce en una mayor congestión de la red, y Metcalfe no hace alusión a los niveles inferiores en su ley.

También hay que decir que hoy en día la evolución de la tecnología de red, y que los proveedores de acceso a internet ofrecen cada vez (aunque muy lentamente ) anchos de banda superiores, que permiten que no haya tanta congestión (si para lo que empleamos internet es para buscar información y para involucrarnos en la redes sociales y no para pasar flujos de información : películas, videos,software,…), podría ser (previo estudio) que si aumentara el numero de nodos no se viera tan afectado el rendimiento a los niveles bajos de una red Ethernet y sería viable la aplicacion de esta Ley pero me da a mi que
lo más probable es que las compañias proveedoras de servicios de Internet, colaboradoras, desarrolladoras de hardware de red, estan muy a favor de esta ley, porque es un punto a su favor, debido a lo que puede significar la adquisición de nuevos clientes y por tanto de mas ventas, lo que se traduce en rentabilidad para la empresa (o empresas).

En fin de todos es sabido que los factores que afectan a la eficacia de una red son:
La cantidad de trafico
Numero de nodos
Tamaño de los paquetes
Longitud de la red
y estos factores pertenecen a niveles bajos de una red Ethernet.

Saludos!

Hola!!
Yo creo que esta ley esta pensada para redes ambiciosas. Por ejemplo: si todo el mundo tiene una cuenta en hotmail y usa el messenger, tu acabarás muriendo en el messenger si quieres comunicarte por mensajería instantánea. Pero esto, a mi parecer, no quiere decir que el messenger sea la mejor opción; si no la más usada y por tanto la más “útil”.
No obstante, que una red sea muy concurrida no es beneficioso siempre; como ejemplo solo hay que recordar cuando llegamos al último día del año y todas las operadoras nos aconsejan no dejar nuestras felicitaciones para el último momento.
Por tanto, una red muy concurrida necesita una mayor capacidad lo cual suele significar un mayor coste.
Al hablar de la seguridad, los problemas con el messenger, emule,… son bastante grandes, esto es en gran parte acausa de ser tan solicitada (s).
Después esta el tema de las necesidades. Volviendo a los ejemplos; Movistar se jacta de ser la que más clientes tiene, las llamadas a un número son más baratas, por tanto si tienes Movistar llamar, en general, saldrá más barato. Sí, t odo eso es muy bonito. Pero ahora nos ponemos en el caso que la mayoría de conocidos (familiares, amigos) o bien que tus compañeros de trabajo son Vodafone o Orange. ¿A quién vas a llamar más a tus personas cercanas o al resto de España?
Y cuando hablamos del mantenimiento y calidad de servicios. Cuanto mayor es una red, más se complica. ¿A nadie se le ha colgado (entiendo por colgar no dejarme leer algunos mensajes o fallos en el funcionamiento, no fallos totales) durante una semana la cuenta del hotmail? A mi sí.
En conclusión: Yo opino que una red se tiene que adaptar a unas necesidades y en el caso concreto de una red local, como su propio nombre ya indica, el número de usuarios es reducido. No veo sentido en introducir más nodos de los necesarios; no ganaríamos en funcionalidad, perderíamos en seguiridad, se encarecería la implantación y el mantenimiento.
La ley esta muy bien para redes basadas en la captación de clientes, cuantos más mejor, porque gana en importancia y en servicios prestados. Pero más cantidad no implica más calidad. ¿Qué sentido tiene que si toda mi familia tiene Vodafone y las mayoría de mis llamadas son para ellos que contrate un servicio a Movistar solo porque su cobertura es más amplia?
Con todo esto tampoco quiero decir que las grandes redes no sean mejores en algunos casos (todavía hay lugares donde sólo tiene cobertura Movistar). Me refiero a que en una red local sirve para prestar un servicio a un limitado número de usuarios con las mayores prestaciones posibles, y no creo que para ello añadir nodos a diestro y siniestro sea lo mejor.
Saludos!!

Para comenzar, pienso que el valor de utilidad que podemos encontrar en un p2p no puede definirse solamente con su número de usuarios. Está claro que como Metcalfe dijo crecerá, pero no creo que de esa forma, crecerá pero de una forma más modesta.
Como ha dicho Juan Carlos, el valor que un usuario obtiene de una red de n individuos crece como log (n).
A nivel ethernet la ley no se cumple, ya que cuantos más usuarios tengo, más tráfico se genera y más colisiones aparecen.
Aqui os dejo un par de links interesantes.
Artículo hecho por tres investigadores americanos, explicando que la ley no es correcta ->
http://www.spectrum.ieee.org/jul06/4109
Y en esta página hay cosas curiosas sobre Robert “Bob” Metcalfe ->
http://jmsuarez.eu/bob-metcalfe-el-inventor-de-ethernet/

Hola,

Leyendo los comentarios me da la sensación que estais interpretando el concepto de “valor” como algo distinto a lo que hizo alusión en un primer momento Metcalfe, y es importante la definición que se tome, por ejemplo #7 o #13 comentais factores como colisiones, tasa de error, rendimiento, etc, sin embargo yo creo que más bien habría que definir el “valor” como la utilidad de la red o la conectividad de una red, en ningún momento inicialmente se tomaron en cuenta estos factores, otro tema es el poder garantizar cierta conectividad o disponibilidad en redes grandes y para esto si hay que tener en cuenta estos factores.

Esta ley hace referencia al “valor” que tiene la red (no al rendimiento, sobrecarga, etc) por lo tanto, aunque se formuló inicialmente para Ethernet también engloba a otras tecnologias o redes como la WWW o sistemas P2P.

El afirmar que su “valor” crece a orden n^2 es debido a que si conectamos por ejemplo 2 máquinas entre ellas, sólo se pueden comunicar de una a otra, sin embargo, si conectamos 100 máquinas entre ellas, las posibilidades de comunicación de una máquina con otra son mucho más altas, Metcalfe inicialmente acuñó que eran 100^2 posibles , este dato es algo excesivo y realmente es en menor medadida, por ello han habido modificaciones o revisiones de esta ley para incluir por ejemplo que debemos eliminar las conexiones que son una máquina consigo misma, por lo que quedaria n(n-1) y si eliminamos los enlaces bidireccionales, los enlaces reales quedarian como n(n-1)/2.
Es decir si tenemos 5 máquinas conectadas entre si, en principio habria 5^2 = 25 enlaces posibles, si descartamos los que son a sí mismos nos quedamos con 5 menos es decir 5*(5-1)=20, pero la mitad de ellos son el mismo enlace en otro sentido (misma dirección) por lo tanto enlaces reales serían 10 que viene siendo 5*(5-1)/2=10.

Un ejemplo puede ser en un sistema criptográfico de clave privada en el cual si queremos transferir mensajes entre todos, tendremos que generar por cada par una clave (excepto cada uno consigo mismo) y sólo generando una por cada par (por cada dirección, no por cada sentido), por lo tanto se generarían [n*(n-1)]/2.

Esta revisión me parece más acertada, por otra lado también existen otras como por ejemplo la de Bob Briscoe y Andrew Odlyzko (IEEE) que refleja que la ley de Metcalfe es erronea ( http://spectrum.ieee.org/print/4109 ) y el valor es nlog (n), o la ya citada Ley de Reed que han comentado en #3 y #4 ( http://es.wikipedia.org/wiki/Ley_de_Reed )

Como nota curiosa en http://jmsuarez.eu/bob-metcalfe-el-inventor-de-ethernet/ comentan un par de predicciones de Metcalfe que fueron erroneas como por ejemplo el colapso de Internet en 1995 o el fin del movimiento OpenSource y Linux cuando m$ lanzara win2000, parece ser que no es la primera vez que se come sus palabras..

Espero que me haya explicado con claridad.

Saludos

Algo que se me olvidó comentar es que tanto la aproximación n(n-1)/2 o nlog(n) son más reales precisamente porque no todas las conexiones potenciales dentro de una red tiene el mismo valor, es decir, que hay máquinas que se comunican más que otras entre ellas, o existe la posibilidad que un par de máquinas nunca se comunique.

Saludos

Pues yo creo que la ley de Metcalfe tiene sentido como se ha comentado a nivel de aplicacion, es como el símil de los faxes, que un fax por si solo no tiene sentido, pero si añadimos más faxes, el fax cada vez toma un valor más importante. No se ya si el crecimiento sera en el orden n2, ya que estoy de acuerdo con Juan Galiana (comentario 17), que comenta que no todos los nodos son iguales de importantes.
El problema que veo yo en las redes ethernet que el rendimiento cae cuando muchos usuarios acceden a ella. Como comento el profesor el otro dia en clase, para un rendimiento optimo de una red ethernet el uso no deberia pasar del 40% (mas o menos), a partir de ese punto el rendimiento empieza a caer, debido a las colisiones que se ocasionan. (vamos si no me equivoco :D) por lo tanto desde el punto de vista de la ley de Metcalfe, no veo que se pueda aplicar a una red Ethernet.

Buenas!!

Yo opino como la mayoria, ya que la ley que propone Metcalfe no es del todo verdad primero porque aumenta al log(n) y no a su cuadrado. En el caso de las redes p2p creo que es bueno que tenga muchos usuarios porque a mayor número de usuarios tendremos mayor cantidad de materiales para compartir, pero siempre y cuando exista un material muy demandado tengamos también una buena cantidad de fuentes para compartirlo porque si no fuese el caso la red p2p iria muy lenta si solo tenemos una fuente para tantos usuarios. En Ethernet ocurre algo parecido, es decir, cuanto mayor es el número de usuarios que quiere utilizar esa red maás lenta será la red en cuestión ya que existirá un mayor número de colisiones lo que implica que los tiempos de espera aumentan o incluso la red no funciona, por eso creo que no se debe sobrepasar el límite de usuarios para el que se creó la red.
Supongo que si el ancho de banda fuera aumentando la ley de Metcalfe se iria refundando sin dar tanto que hablar sobre las colisiones que se producen.
En el ámbito comercial se dice que la ley de Metcalfe es similar a la Ley de Moore ya que a medida que la velocidad de Ethernet a ido aumentando su precio a ido disminuyendo.

Buenas!!

Yo pienso como la mayoria de mis compañeros, creo que la Ley de Metcalfe no es del todo verdad.
Si que es bueno en el caso de redes p2p que hayan muchos usuarios porque a mayor número de usuarios, hay mayor cantidad de materiales que se pueden compartir unos usuarios con otros, pero existe un problema ¿qué pasa si un material muy solicitado solo está disponible por una fuente? Pues en ese caso como el material es demandado por muchos usuarios, el tiempo de espera para ese material se vuelve eterno, no ocurriria lo mismo si el material fuera compartido por mas usuarios porque hay más partes disponibles y la red no se colapsa tan facilmente.
En cuanto a Ethernet la Ley de Metcalfe no es totalmente cierta, primero porque se dice que el número de usuarios aumenta al log(n) y no a su cuadrado y después porque en una red Ethernet cuantos mas usuarios se conecten, mayor será el número de colisiones y por tanto los tiempos de espera después de una colisión aumentarán haciendo muy lenta a la red o incluso no pudiendo usar sus servicios.
Tal vez la Ley de Metcalfe tenga mayor valor si los anchos de banda aumentan porque podrán viajar mayor número de paquetes por la red y podrán haber más nodos conectados.
En muchas ocasiones la Ley de Metcalfe se compara con la Ley de Moore, esto es así porque se dice que a medida que la velocidad de Ethernet a ido aumentando, el precio a ido disminuyendo y hoy en dia Ethernet domina en las LAN a pesar de que la ley no se cumpla completamente.

Yo pienso que en los niveles bajos esta ley no se cumple porque ethernet para acceder el medio para transmitir datos utiliza el método por colisiones. Entonces si el tráfico de datos es elevado habrá más colisiones y entonces el rendimiento será menor.

A mi forma de verlo la ley de Metcalfe no es totalmente cierta ya que realmente el valor de una red no es proporcional al cuadrado de su número de usuarios ya que en realidad no todos los usuarios aportan a la red el mismo valor.
Por ejemplo la ley de Metcalfe daría por supuesto que en las aplicaciones web 2.0 todos los usuarios que las constituyen generan valor útil (sólo tiene en cuenta que el número de usuarios crezca), pero en realidad puede no ser así. Al igual que no tendría en cuenta por ejemplo que en una comunidad p2p no todos los usuarios generan tráfico de la misma forma, o aportan el mismo contenido.

Por otra parte pienso que a niveles bajos de una red ethernet puede aumentar el número de colisiones entre usuarios de la red por tanto la ley no se cumpliría.

Hay un artículo donde se propone una posible Ley inversa a la Ley de Metcalfe, argumentando que “la privacidad y seguridad en una red es inversamente proporcional a n al cuadrado, siendo n el número de nodos de la red”, es decir, cuanta más gente hay en ella más problemas aparecen, más hackers por metro cuadrado e intentos de romper protecciones, posibilidades de que usen nuestros datos sin autorización, etc. (Benjamin Lipman).

http://www.elprofesionaldelainformacion.com/contenidos/1998/noviembre/la_inversa_de_la_ley_de_metcalfe.html

Queria dejar otro comentario respecto a esta ley que he visto en algún articulo de internet, y que a mi me parece por lo menos que tiene bastante razón. La idea de la ley de Metcalfe, se basa en la idea de una medición cuantitativa, lo cual en mi opinion no es suficiente, sino que también, es necesaria una medición cualitativa.
Un fragmento de un articulo que he encontrado que me parece que se explica por si solo:

“Todos hemos visto batallas por conseguir el máximo número de clientes o usuarios en una tecnología o un negocio, para al final darse cuenta de que un cliente o un usuarios que no es de calidad, que no profundiza en el producto, no es rentable.” (en http://www.pacolopez.biz/noticia.php?id=81 )

Efectivamente, a nivel de una red grande y extensa donde hay un numero de usuarios elevado, y el trafico de informacion es constante, tenemos acceso a mas informacion, comparticion de datos,nos actualizamos casi diariamente..

Si hablamos de los dispositivos que distribuyen los datos, creo que la ley no se cumple a estos nivel (enlace de equipos),puesto que si el dispositivo encargado de realizar esta tarea tie que enviar una gran cantidad de informacion, aunque en un extremo la red este libre, si el trafico al otro lado esta atascado, el acceso a la informacion se ralentizara y la navegabilidad de la red se vera mermada.

Antes de empezar a valorar la Ley de Metcalfe habría que preguntarse a qué hacía referencia Rebert Metcalfe con el concepto “valor”. El valor se me ocurre que puede entenderse desde tres aspectos o puntos de vista diferentes:

1) Funcional para el usuario de la red.
2) Comercial de la red o su valor en mercado.
3) Posibilidades de interconexión que ofrece la red a los usuarios.

Cualquiera de estos tres puntos no tienen por qué tener una relación directa con los otros dos.

La fórmula n^2 de la Ley de Metcalfe en realidad es la notación asintótica de la fórmula n*(n-1) que hace referencia al número de usuarios por el número de transacciones posibles que puede realizar un usuario o nodo de la red (en realidad Metcalfe hizo referencia a nodos, no a usuarios). Esta explicación de la fórmula hace pensar que Metcalfe hacía referencia al valor entendido desde el punto de vista de las posibilidades que es capaz de ofrecer una red (punto 3), aunque en las lecturas en Internet veo que es utilizada o criticada entendiendo valor como cualquiera de los dos primeros puntos. Haciendo referencia de nuevo a las tres acepciones de valor descritas, quizás sea más díficil de entender la diferencia entre el punto 1 y 3. Pongamos como ejemplo una red de 100 usuarios que permite el intercambio de fotos entre los usuarios; la red puede ser que no haya tenido mucha aceptación entre los usuarios de ésta y sea muy poco utilizada, así que el valor desde el punto de vista funcional para el usuario será bajo. En cambio, las posibilidades que ofrece son altas, ya que cualquier usuario de esta red puede realizar intercambiar fotos con otros 99 usuarios. El valor desde el punto de vista comercial puede situarse entre ambos puntos 1 y 3, ya que en la realidad no sólo depende del número de usuarios de la red (punto 3), sino también de la interacción de estos usuarios dentro de la propia red (punto 1).

No hay discusión que la fórmula exponencial es totalmente acertada si interpretamos el valor de una red como el número de transacciones posibles. Si tomamos la fórmula como el valor funcional de una red el crecimiento exponencial desde mi punto de vista es totalmente exagerado aún cuando el nivel de uso de la red por parte de los usuarios sea alto. Es dificil de evaluar matemáticamente el valor desde este punto de vista, pero pienso que el crecimiento debería tender a lineal a partir de un un nº elevado de usuarios. El valor comercial de una red es todavía más dificil de medir y para nada emplearía la fórmula de Metcalfe en la que sólo se tenga el cuenta el número de nodos o usuarios, ya que se valorarían otros aspectos más complejos.

Creo que lo importante es el mensaje que quiere dar Metcalfe con su ley, ya que “valorar” una red mediante una ecuación matemática me parece irreal y absurdo, (de la misma precisión que la formula de la felicidad), porque como ya han comentado compañeros no todos los usuarios de una red proporcionan lo mismo.

Lo que está claro es que una red tendrá mucho valor si en ella participan un número elevado de usuarios, quiere decir que esta red ofrece algo que es de utilidad o simplemente que gusta, y que además posee mucha información. Es decir, creo que teniendo cifras de usuarios es suficiente para saber ese “valor”, sin necesidad de una ecuación.

En cambio cuando hablamos del nivel más bajo de red, la tecnología tiene unas especificaciones y unas limitaciones físicas, por lo que obviamente para conseguir que una red sea valorada necesitamos que funcione de forma óptima, y eso no se consigue precisamente manejando al mayor número de usuarios a la vez (como ya se ha comentado hay que tener en cuenta las colisiones, seguridad…etc ).

A mi modo de entender dicha ley, me parece que existen dos valoraciones posibles. La primera es el valor de la red como medio de información, es decir, en el caso del software p2p donde cada cual comparte su información y así cada persona que utiliza esa red se beneficia de su contenido, por lo cual cuanto más personas se incorporen a la red más aumenta esa red geográficamente y su valor informativo. Y la segunda valoración es la red a bajo nivel, como medio físico en el que cada vez que aumenta el número de personas que utiliza la red, hace que la red tenga tanta cantidad de tráfico que al final esta se colapse. Por tanto al aumentar el número de personas que utiliza la red aumenta el valor de esa red como medio de información pero a la vez hace que físicamente esta disminuya su rendimiento de modo que una valoración sea inversamente proporcional a la otra.

Antes de empezar a valorar la Ley de Metcalfe habría que preguntarse a qué hacía referencia Robert Metcalfe con el concepto “valor”. El valor se me ocurre que puede entenderse desde tres aspectos o puntos de vista diferentes:

1) Funcional para el usuario de la red.
2) Comercial de la red o su valor en mercado.
3) Posibilidades de interconexión que ofrece la red a los usuarios.

Cualquiera de estos tres puntos no tienen por qué tener una relación directa con los otros dos.

La fórmula n^2 de la Ley de Metcalfe en realidad es la notación asintótica de la fórmula n*(n-1) que hace referencia al número de usuarios por el número de transacciones posibles que puede realizar un usuario o nodo de la red (en realidad Metcalfe hizo referencia a nodos, no a usuarios). Esta explicación de la fórmula hace pensar que Metcalfe hacía referencia al valor entendido desde el punto de vista de las posibilidades que es capaz de ofrecer una red (punto 3), aunque en las lecturas en Internet veo que es utilizada o criticada entendiendo valor como cualquiera de los dos primeros puntos. Haciendo referencia de nuevo a las tres acepciones de valor descritas, quizás sea más díficil de entender la diferencia entre el punto 1 y 3. Pongamos como ejemplo una red de 100 usuarios que permite el intercambio de fotos entre los usuarios; la red puede ser que no haya tenido mucha aceptación entre los usuarios de ésta y sea muy poco utilizada, así que el valor desde el punto de vista funcional para el usuario será bajo. En cambio, las posibilidades que ofrece son altas, ya que cualquier usuario de esta red puede realizar intercambiar fotos con otros 99 usuarios. El valor desde el punto de vista comercial puede situarse entre ambos puntos 1 y 3, ya que en la realidad no sólo depende del número de usuarios de la red (punto 3), sino también de la interacción de estos usuarios dentro de la propia red (punto 1).

No hay discusión que la fórmula exponencial es totalmente acertada si interpretamos el valor de una red como el número de transacciones posibles. Si tomamos la fórmula como el valor funcional de una red el crecimiento exponencial desde mi punto de vista es totalmente exagerado aún cuando el nivel de uso de la red por parte de los usuarios sea alto. Es dificil de evaluar matemáticamente el valor desde este punto de vista, pero pienso que el crecimiento debería tender a lineal a partir de un un nº elevado de usuarios. El valor comercial de una red es todavía más dificil de medir y para nada emplearía la fórmula de Metcalfe en la que sólo se tenga el cuenta el número de nodos o usuarios, ya que se valorarían otros aspectos más complejos.

Hola,

Sobre la idea generalizada de “en ethernet no se cumple por las colisiones, pero en otros niveles si”, no os da que pensar que esta ley fuera formulada en relación de Ethernet aunque luego aplicable a otras redes?

Yo pienso que Metcalfé obvió el tema del rendimiento, es decir, es cierto que el valor de una red crece cuanto mayor es el número de usuarios, pero hasta un punto de inflexión (como ha comentado #27), en el cual si no se puede dar soporte a todos esos usuarios el rendimiento cae, y el valor cae de igual modo.

Pero al igual que puede suceder en Ethernet (por el tema de las colisiones…) puede suceder también en P2P (si por ejemplo sólo tenemos un servidor para todos los usuarios).

Quizá me equivoque, pero pienso que se puede generalizar a todos los niveles, no pensais igual?

Saludos

Esta entrada la insertamos con el objetivo de discutir y que razonarais sobre que el valor de una red no siempre aumenta infinitamente. Estos estudios, con la interpretación que algunos (por ejemplo:#28) habéis dado, el número de conexiones posibles va a presentar un punto de inflexón (como bien comenta Juan en #29) que es dependiente de la tecnología subyacente (Ethernet, TCP/IP, …, según el nivel…) y a partir del cual una red pierde rendimiento (por las colisiones en el caso de Ethernet)
Además, como también se ha comentado, este valor no es del todo exacto, y ya ha sido modificado por la leyes que habéis ido comentando.

Buenas,
Sobre lo que comenta algún compañero sobre los proveedores de acceso a internet que ofrecen cada vez anchos de bandas de más velocidad, pienso que le interesa por una parte pero por otra no el que existan mayor número de usuarios de internet (los cuales captan los proveedores de acceso a internet), ya que estube leyendo que en el caso de ono han “capado” el p2p debido a que el número de usuarios crece y no tienen infraestructuras suficientes como para soportar que todos los usuarios esten descargando por programas p2p a altas velocidades. En el caso de ONO no debería interesarles que crezca el número de clientes ya que podrian colapsar los servidores de ono creo yo. Así que ONO lo que hace para que no gastarse dinero en las estructuras de sus redes es capar el p2p y así pueden tener más clientes sin dejarse un duro ONO.
Al fin y al cabo todas las compañias nos roban de una manera o de otra…
Un saludo.

Actualmente las leyes son cada vez mas discutibles e incluso ambiguas, deberíamos empezar con que consideramos nosotros “valor” si como valor consideramos cantidad de información y mayores opciones de difusión de la misma, en este caso podría ser medianamente acertada esta ley, aunque discrepo con ella, ya que no se puede afirmar que aunque haya mas riqueza esta se pueda distribuir mejor y con fluidez (una comparación seria la riqueza alimenticia del mundo, aunque hay para todos no llega a todos lados y cuanta mas gente al final menos recursos habrán para repartir), por lo tanto creo que la ley deja de mencionar su propia base de ethernet, y sin una base lo que sigue se quedan en simples castillos en el aire.

En contraposición, suponiendo que el valor de la red vaya aumentando cuanta más gente hay en ella, estaría más deacuerdo con lo que dijeron Andrew Odlyzko y Benjamin Tilly, ya que no puedes valorar todos los nodos de la misma manera.

Por todo esto, creo que una red aumentara su valor hasta un cierto punto, aunque después de ese punto, bajara empicado, volviéndose algo intratable e inútil.

Exacto, yo tengo ONO y tienes toda la razón, es lo que ellos llaman “priorizacion del trafico”, la mayoría de los p2p estan “capados” y desde hace un tiempo incluso algunos FTP’s.
Es un poco ilógico que en estos momentos esten ofertando conexiones de 6, 12 y 25 Mb para que luego solo puedas utilizar tales velocidades para navegar y leer el correo, es algo que no entiendo.

En la actualidad, como ya se ha mencionado antes, desgraciadamente no se se cumple la ley de Metcalfe para los niveles inferiores de una red ethernet. A estos niveles cuanto mayor sea el número de usuarios, mayor es el tráfico de la red, y por lo tanto llega un momento en que el rendimiento de la red disminuye incluso llegando a ser inutilizable.

Todos estamos de acuerdo con lo que menciona la ley, cuanto mayor número de gente haya en la red, mayor cantidad de información, riqueza, variedad, etc, hay para compartir, pero todo esto es posible gracias a la tecnología de red que hay por debajo (direccionamiento, fragmentación, medios físicos, etc), campo que está en continuo desarrollo para facilitar dicho tráfico de información, y acercarnos a la ley de Metcalfe también a niveles inferiores.

Esta opinión se ha dado dando al “valor” que menciona Metcalfe en su ley el significado de utilidad, riqueza, etc, en primer lugar, y para los niveles inferiores, rendimiento, etc. Por esto, estoy completamente de acuerdo con el comentario #16 de Juan.

Responder a Alfredo M. Soro Cancelar respuesta

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *