Instalar y configurar los parámetros de red de todos los nodos de una LAN, se puede centralizar y automatizar mediante DHCP. Esto es aplicable en entornos heterogéneos, es decir, con variedad de clientes (Windows, Linux, Mac,…). Es posible que nos encontremos con la circunstancia de que, bien por disponibilidad, bien por carga, instalemos más de un servidor de DHCP para gestionar este proceso.
En la página de Microsoft (opción, a la derecha, de prácticas recomendadas) dicen que una práctica recomendable para distribuir la carga entre dos servidores DHCP es la llamada regla de diseño 80/20. Dicha regla consiste en distribuir el 80% de las direcciones disponibles para una red entre un primer servidor de DHCP y el 20% restante mediante un segundo servidor. ¿Qué pensáis? ¿Palabra de Microsoft? 😉 ….
27 replies on “Prácticas recomendadas de DHCP”
En esta Web http://www.babooforum.com.br/forum/index.php?showtopic=133372 En uno de los comentario hablan de un libro que comentan este tema
http://btobsearch.barnesandnoble.com/booksearch/isbninquiry.asp?r=1&Btob=Y&Isbn=1565928385
Se comenta que en los casos de una red interna (el mismo sitio) es pefrerible una configuración 50% a 50% y en más de una web se comenta que el método 80/20 falla si están en el mismo sitio.
Por ejemplo en un comentario que se encuentra en esta página:
http://blogs.technet.com/ponicke/archive/2007/01/18/regreso-con-gloria-controladores-de-dominio-solo-lectura-reloaded.aspx
También comenta una desventaja del médoto 80/20
“La desventaja del método de 80/20 es que el servidor alejado de DHCP, con el solamente 20% del espacio de dirección disponible, no podrá manejar todas las peticiones de DHCP de la subred” (traducido)
No sé hasta que punto es más óptimo el usar una distribución 80/20, lo que sí está claro es que esa distribución se hace para aumentar la tolerancia a errores al proporcionar servicios a los clientes DHCP ubicados en la red. Si usamos dos servidores, es para que en caso de que uno falle, podamos usar el otro para continuar con la concesión de nuevas direcciones y renovar las de los clientes existentes.
Supongo que un posible problema será el que sea el servidor DHCP con el 80% el que falle, en ese caso, sólo tendremos un 20% de las direcciones para seguir distribuyendo. Por eso, quizá sea mejor usar un reparto 50/50, ya que así tienen el mismo nivel de distribución.
Vaya, cuando mandé mi post, no aparecía el de Inés. Ahora parece que esté repitiendo lo que ella dice :S
Una solución ideal para el servicio DHCP en redes en las que se quiere garantizar la disponibilidad puede ser un cluster de servidores, pero quizás esta solución no sea necesaria, y puede optarse por alguna solución más simple y barata utilizando dos servidores.
* 50/50. Usamos dos servidores utilizando la misma cantidad de IP a proporcionar, cada uno configurado con un rango de IP’s distintas del otro. Esta implementación proporciona gran tolerancia a fallos, pero es posible que un servidor proporciones más IP’s que el otro. Esto puede causar una situación en la que uno de los servidores no tenga más IP’s para asignar, y si el otro falla, no se podrían ofrecer más IP’s a los clientes.
* 80/20. Usamos dos servidores con un rango de IP’s desproporcionada, el servidor primario ofrecerá el 80% del rangos de IP’s y el secundario el 20%. Esta solución es buena cuando el servidor principal se encuentra en la subred donde se quiere ofrecer el servicio y el secundario se encuentra en un otra subred remota. Así, si un cliente solicita una IP, será el servidor DHCP local el que primero le oferte una solución, ya que la petición al DHCP remoto tendría que atravesar la WAN. Ante la eventualidad de que el servidor DHCP local (principal) falle, el cliente recibiría una respuesta del remoto (secundario). Obviamente si el servidor principal falla, hay un algo riesgo de que el servidor secundario se quede sin IP’s disponibles.
* 100/100. Cada servidor puede ofrecer IP’s a todos los clientes de la subred. Por ejemplo, si hay 100 clientes, se ofertan al menos 200 IP’s para ellos, y a cada servidor se le asigna la mitad del rango, que es suficiente para ofrecer el servicio a todos los clientes. Obviamente esta es una solución sin riesgos, ya que si un servidor cae, el segundo podría ofrecer el servicio igualmente. Obviamente esta disponibilidad casi garantizada hace que el costo sea mayor, obligando en algunos casos a rediseñar la red (si ya está creada).
Fuente: http://searchwincomputing.techtarget.com/tip/0,289483,sid68_gci1197499,00.html
http://www.oreilly.com/catalog/dhcpwin2000/chapter/ch04.html
Una opción alternativa para 80/20 DHCP. Configurar servidores de reserva:
La mayoría de las redes necesitan un servidor DHCP principal en línea y otro servidor DHCP que actúa como servidor secundario o de reserva. Si decidimos no implementar dos servidores DHCP mediante la regla 80/20 para equilibrar los ámbitos, pero se desea proporcionar cierto nivel de tolerancia a errores, podemos considerar la posibilidad de implementar un servidor DHCP de reserva o de espera como alternativa. En la configuración de espera, el servidor DHCP en espera es otro equipo servidor que se instala y configura de forma idéntica al servidor DHCP principal. En este caso, la única diferencia es que el servidor en espera y sus ámbitos no están activados para utilizarlos en condiciones normales. Se configuran ámbitos duplicados, pero no se activan excepto cuando se necesita de forma crítica, como, por ejemplo, para sustituir el servidor DHCP principal si se detiene o apaga durante un largo período de tiempo.
Puesto que la solución del servidor en espera requiere prestar una atención especial a su configuración, así como administrarlo manualmente para asegurar una transición correcta para que lo utilicen los clientes DHCP, resulta menos recomendable como alternativa que la utilización de dos o tres servidores DHCP que se repartan de forma equilibrada el uso de los ámbitos activos.
Fuentes:
– http://www.inaoep.mx/~moises/AGC/sw-rout.html
– http://technet2.microsoft.com/WindowsServer/es/
Una ventaja más de usar la regla de diseño 80/20 para distribuir la carga entre dos servidores DHCP es la protección contra ataques de denegación de servicio. Los servidores DHCP pueden ser atacados mediante scripts que soliciten el rango total de las direcciones de un determinado ámbito, por lo que deben replicarse utilizando la regla de 80/20, es decir, que cada servidor ofrezca el 80 por ciento de las direcciones de su ámbito y el 20 % de las direcciones del otro, así si un servidor es atacado el otro mitiga el impacto.
Fuentes:
– http://download.microsoft.com/download/3/1/e/31ee31ae-cdc0-469e-a089-37b400246026/w94-reprintfortificacion.pdf
La regla de 80/20 ayuda a la protección contra los ataques de negación de servicio en DHCP.
Debido a que los servidores DHCP son recursos vitales que proporcionan acceso del cliente a la red, pueden ser los objetivos primarios para ataques DoS. Si se ataca un servidor DHCP y ya no está para dar servicio a solicitudes DHCP, eventualmente los clientes DHCP no podrán adquirir concesiones. Estos clientes perderán entonces su vínculo existente IP y la capacidad de acceder a los recursos de la red.
No es muy difícil escribir una secuencia de comandos de herramienta de ataque para solicitar todas las direcciones disponibles en un servidor DHCP. Esto agotaría el grupo de direcciones IP disponibles para solicitudes subsiguientes legítimas de los clientes DHCP. También es posible que un usuario malicioso configure todas las direcciones IP de DHCP en el adaptador de la red de una PC que administran, causando así que el servidor DHCP detecte conflictos de dirección IP en todas las direcciones que estén en su alcance y rechace asignar direcciones DHCP.
Además, al igual que como en los otros servicios de red, un ataque DoS —por ejemplo, el agotamiento del CPU o llenar el búfer de solicitudes del escucha DHCP— que agota la capacidad del servidor DHCP para responder a tráfico legítimo, podría hacer imposible que los clientes solicitaran concesiones y renovaciones. Todo esto se puede evitar al diseñar adecuadamente los servicios DHCP en un ambiente.
Configurar servidores DHCP por pares y seguir la mejor práctica de la Regla 80/20, esto es dividir el alcance de los servidores DHCP entre servidores de manera que el 80 por ciento de las direcciones se distribuyan por medio de un servidor DHCP y el 20 por ciento por otro, ayuda a mitigar el impacto de este tipo de ataques al asegurar que los clientes puedan continuar recibiendo la configuración de direcciones IP en caso de que exista una falla en el servidor.
Se puede encontrar más información sobre este tema en :
http://download.microsoft.com/download/6/4/3/643C6F84-0043-429C-8A4E-245507954825/WindowsServer2003SecurityGuide1.pdf
Hay temas de los que no es posible sacar 30 comentarios distintos, y creo que este es uno de ellos. Antes de repetir (o casi) algo que ya han dicho mis compañeros, esperaré que el profesor nos diga a los que faltamos algún (o varios) subtema que comentar.
Saludos!
Pueden surgir algunos problemas con esta regla, por ejemplo que en un momento dado cada uno de esos servidores se dedique a dar direcciones de manera independiente, pudiendo crear conflictos en la red.
Y desviándonos de la regla 80/20, un documento más general sobre cómo decidir cuántos servidores DHCP se deben utilizar:
Para determinar el número de servidores DHCP que se deben utilizar debe tener en cuenta los siguientes aspectos:
•La ubicación de los enrutadores en la red y si desea disponer de un servidor DHCP en cada subred.
Si un servidor DHCP se utiliza en más de una red, normalmente es necesario configurar agentes de retransmisión de DHCP adicionales y, en algunos casos, también tendrá que utilizar superámbitos.
•La velocidad de transmisión entre los segmentos para los que se proporciona el servicio DHCP.
Si tiene vínculos WAN o de acceso telefónico más lentos, normalmente necesitará un servidor DHCP en ambos lados de estos vínculos para proporcionar el servicio local a los clientes.
•La velocidad de las unidades del disco del servidor y la cantidad de memoria de acceso aleatorio (RAM) instalada en el servidor DHCP.
Para optimizar el rendimiento del servidor DHCP se deben utilizar las unidades de disco más rápidas y la mayor cantidad de memoria RAM posible. Debe evaluar cuidadosamente el tiempo de acceso a disco y los tiempos promedio de las operaciones de lectura y escritura en disco al planear las especificaciones de hardware del servidor DHCP.
•Restricciones prácticas basadas en la clase de direcciones seleccionada y otros detalles de configuración del servidor.
Para determinar las limitaciones y las posibilidades del hardware y comprobar si la arquitectura de la red, el tráfico y otros factores afectan al rendimiento del servidor DHCP puede probar los servidores DHCP antes de implementarlos en la red de la organización. Las pruebas de hardware y de configuración también permiten determinar el número de ámbitos que se deben configurar en cada servidor.
Fuente:http://www.microsoft.com/technet/prodtechnol/windowsserver2003/es/library/ServerHelp/3040afd1-e82b-4ded-8fcd-aa8fe021fcc1.mspx?mfr=true
En mi opinión la regla 80/20 es una buena solución (para redes relativamente pequeñas) en el caso de tener 2 servidores DHCP y para que se pueda seguir renovando y asignando las direcciones de los clientes. Sin embrago si tenemos una red grande convendría tener otra relación mayor como por ejemplo 60/60 ya que si tenemos la 80/20 y se colapsa o atacan el primer servidor, el segundo servidor no dará a bastos al tener muchos clientes a los que renovar las ips y conceder ips. Por eso pienso que sería menos probable que se colapsase el segundo servidor DHCP si tenemos una relación mayor del tipo 60/60 o mayor.
Según se menciona en http://www.microsoft.com/technet/prodtechnol/windowsserver2003/es/library/ServerHelp/3040afd1-e82b-4ded-8fcd-aa8fe021fcc1.mspx?mfr=true
,la idea de repartir el trabajo entre los distintos servidores DHCP que tengamos, no es buena; ‘resulta menos recomendable como alternativa que la utilización de dos o tres servidores DHCP que se repartan de forma equilibrada el uso de los ámbitos activos’.Por lo tanto tendremos que utilizar las relaciones que he comentado anteriormente dependiendo del tamaño de la red.
Para una gran subred con ordenadores estáticos es más conveniente una carga más repartida, ya que tenemos una larga serie de direcciones fijas . También hay que tener en cuenta el periodo de validez, ya que si es muy alto y tenemos muchas peticiones, nos quedaremos sin direcciones que ofrecer, sobretodo para escenarios donde tenemos muchas peticiones de conexión. Para grandes subredes estáticas es más recomendable repartir la carga (50/50) y periodos de validez largos.
En general el reparto 80/20 está bien para muchos casos ya que por lo general tenemos muchos equipos estáticos y alguno dinámico, podemos asegurarnos conexiones y servir direcciones.
Fuente:
http://www.markwilson.co.uk/blog/2005/07/best-practices-for-managing-automatic.htm
Es una buena idea configurar dos servidores DHCP porque puedes asegurar la conexión si uno de los servidores cae por algún motivo.
Yo creo que Microsoft tiene parte de razón diciendo que la regla de diseño 80/20 es recomendable porque si es una
red sin problemas tiene muchas probabilidades de no caer por lo tanto tener mayor porcentaje de direcciones disponibles
en el primer servidor es mejor porque de esta manera el primer servidor no se colapsará tan rápidamente.
Los dos servidores DHCP tienen que estar conectados a dos subredes diferentes teniendo en cuenta configurar intervalos de retardo distintos para que se elimine el riesgo de saturación de paquetes DHCP seleccionando rutas de acceso a la red aleatorias.
Como introduccion y puesto que nadie lo ha mendionado aun, decir que el nombre real de la regla 80/20 es el Principio de Pareto.
Este principio viene a decir algo asi: Para muchas situaciones, el 80% de las conecuencias viene producido por el 20% de las causas. Es un principio aplicable de forma general en varios campos como la economia o en nuestro caso, las redes.
Para comprenderlo un poco mejor, podriamos decir que el principio de parte nos dice que para una situación en concreto existen muchos problemas sin importancia y pocos problemas graves.
Esto aplicado al tema que tratamos podría significar que tenemos dos servidores DHCP, uno al 80% y otro al 20%. El servidor que tenemos al 20% seria el encargado de abordar los pocos problemas vitales que se pudiesen presentar en el servidor primario.
Eso es mas o menos lo que yo entiendo de este principio aplicado a DHCP, parece lógico.
Aqui podeis ver el llamado diagrama de Pareto, que nos muestra de forma grafica este principio: http://upload.wikimedia.org/wikipedia/commons/8/89/Pareto.png
Links: http://es.wikipedia.org/wiki/Principio_de_Pareto
Creo que la regla 80/20 es una buena proporción de reparto de direcciones ip para redes Lan de poco ámbito donde hay un número limitado de equipos a los que servir. Pero si queremos ampliar considerablemente esa Lan tendríamos que cambiar los porcentajes de la red dependiendo del número de equipos que disponemos, de modo que si se cae el primer servidor DHCP, el segundo renueve el tiempo de concesión del cliente y si no es posible que utilice como última alternativa una nueva dirección válida para que dicho equipo pueda permanecer en la red.
https://www.microsoft.com/technet/prodtechnol/windowsserver2003/es/library/ServerHelp/75cd0e1f-f464-40ea-ac88-2060e6769f33.mspx?mfr=true
La regla del 80/20 no sólo se aplica a la informática o a la tecnología sino es una regla que todo buen directivo/administrador que se precie debe saber.
La inventó un tal Joseph M. Juran en los años cuarenta ya que quería describir una expresión matemática que describiera la desigual distribución de riquezas en la Italia de aquella época.
Este personaje observó que en Italia el 20% de la población poseía un 80% de la riqueza, (de ahí su nombre).
Si estamos ofrenciendo un servicio, por muy bien que lo hagamos no podremos pretender que funcione siempre. Por ello debemos trabajar con la posibilidad de que algo falle, por eso usamos varios servidores dhcp, dns, o del servicio que sea, porque por estadística TODO tiende a fallar. “El 20% de los procesos son causantes del 80% de los problemas” , pero también será válido el contrario: “El 80% de los procesos sólo solucionan un 20% de los problemas”.
Por todo ello, la proporción 80/20 será la que nos proporcione el equilibro entre rendimiento y efectividad.
Bueno, como no se han propuesto subtemas:
Yo opino que la solución 80/20 se debe utilizar en el caso en que tengamos un servidor principal y uno secundario, de forma que el principal tendrá el 80% de las direcciones a asignar y el otro el 20%. Así conseguimos que el servidor principal lleve la mayor parte de las asignaciones DHCP y que si falla, el otro haga de soporte durante un período no muy largo de tiempo. Como el servidor caído sería el principal, en teoría le prestaríamos más atención y lo intentaríamos reparar rápidamente, por lo que el secundario no llegaría a agotar todas las direcciones de que dispone.
En caso de que falle el secundario, podríamos permitirnos tardar bastante más tiempo en repararlo, ya que solo posee un 20% de las direcciones y, probablemente, el principal tardaría mucho más en quedarse sin direcciones que asignar.
Así, tenemos que en nuestra red siempre prestaríamos más atención y cuidado al servidor principal, mientras que el secundario serviría de soporte por si éste falla y no de sustituto.
En cambio, si usamos una configuración 50/50, ganamos en capacidad de asignación si alguno de los dos falla, pero tendremos que prestar la misma atención y diligencia a ambos servidores, ya que poseen la mitad de las direcciones y esto es una cantidad que no se puede despreciar tanto como la del 20%. Por lo tanto, los administradores deberán actuar con bastante rapidez en caso de que fallase cualquiera de los dos. Tendrá que estar igual de cuidados.
http://www.microsoft.com/technet/prodtechnol/windowsserver2003/es/library/ServerHelp/b9b1845d-19f2-4f13-8a7b-95ca35b02198.mspx?mfr=true
http://www.windowsnetworking.com/kbase/WindowsTips/Windows2000/AdminTips/DHCPandDNS/EnsuringDHCPServerAvailability.html
http://www.enterpriseitplanet.com/networking/features/article.php/11315_3327231_3
Buenas, yo opino que esta forma de diseño, es bastante recomendable porque ademas de poder hacer una division en el reparto de direcciones, podemos hacer mucho mas flexible nuestra red en cuanto a posibles errores o fallos.
En la manera que se plantea la cuestion el planteamiento de esta estrategia se presenta muy adecuado. En el caso de que caiga uno de los dos dispositivos el que queda en pie no deja, la red desatendida y puede seguir el mantenimiento de, sino toda, parte de ella.
Una posible solucion al problema;
—————————-
Cuando se realiza esta implementacion uen una red, el servidor del 80% de direccion suele excluir al de 20% y viceversa, en caso de que caiga uno de ellos el otro puede hacerse cargo de la red, liberando una de las exclusiones que el servidor tenia asignada, para que el otro servidor abarque todo el area.
Otra posible solucion, aunque menos recomendable, seria la de detener el servicio DHCP en un servidor y activarlo solo en caso de que el otro “caiga”
Respuestas en:
http://groups.google.com/group/microsoft.public.es.windows.server.directorio_activo/browse_thread/thread/58e0a8d0812449b5
Hola
En mi opinión y según leo en distintas páginas de Internet, la recomendación que hace Microsoft es bastante buena debido a que se han realizado bastantes prácticas sobre ella.
Una buena regla para determinar la proporción es de (0,5 * Arrendamiento la hora de la subred): (Cantidad de tiempo que le llevará a restaurar un servidor). Por ejemplo, si la dirección de su tiempo de servidor DHCP es 8 días, después que los clientes renueven su arrendamiento cada (0.5 * 8 = 4) días. Le llevará máximo 1 día a restaurar un servidor en caso de que se caiga. Con lo cual la adecuada relación sería 4:1 o 80:20. Puede variar está según las necesidades / despliegue.
Lo ideal sería, por supuesto, si tenemos una gran cantidad de espacio de direcciones disponible (especialmente si se está utilizando uno de los rangos de direcciones privadas especificados por RFC 1918), entonces puede olvidarse de la aplicación de la regla y utilizar una regla 50/50. Hay que tener en cuenta que en este caso, el número máximo de clientes de la red que corresponden a aproximadamente el 50% del rango de direcciones disponibles. Por lo tanto, si se espera alcanzar en torno a 250 clientes, usted debe usar un / 23 del rango de direcciones de la subred.
Las reglas 50/50 y 80/20 no sólo sirven para dos servidores DHCP, que en la mayoría de las organizaciones es suficiente, pero se puede extender a cuatro, seis, ocho, o más servidores DHCP. Es más fácil de trabajar con servidores DHCP de dos en dos, pero se deberían usar el número que mejor se adapte al dominio
DHCP en Windows Server 2003 se puede realizar y configurar los servidores DHCP en un grupo máximo para la tolerancia de fallos y a prueba de fallos. Al aplicar DHCP en un grupo, no es necesario utilizar las reglas 70/30 o 80/20. En esta aplicación, puede optar por usar la regla 50/50 para una máxima tolerancia a fallos en un solo servidor virtual..
Enlaces:
http://www.examcram2.com/articles/article.asp?p=683062&seqNum=5
http://blogs.technet.com/teamdhcp/archive/2007/06/23/thumb-rule-for-determining-the-ratio-in-a-dhcp-split-scope-deployment.aspx
Pienso que hay que tener en cuenta el tamaño de la red que vamos a abordar a la hora de aplicar la regla 80/20. Por ejemplo si nos encontramos ante una situación donde hay un número muy alto de ordenadores conectados a nuestro servidor a los que tenemos que conceder direcciones ip, podríamos aplicar correctamente esta regla hasta el posible momento de que el primero por cualquier causa caiga, en este caso el segundo servidor se tendría que ocupar del 20% de asignaciones de direcciones restantes, por lo que si ha caído el primer servidor podría ocurrir que este no pueda conceder todas las peticiones que pudiesemos tener, por tanto muchos clientes se quedarán sin poder acceder a los recursos de la red.
Sin embargo en el caso de un servidor en el que no tengamos una cantidad excesiva de ordenadores conectados pienso que la regla si que se podía aplicar correctamente porque en el supuesto caso de que fallase el primer servidor el segundo posiblemente se pueda ocupar si no al 100% casi al 100% de las direcciones ip, por lo que en este caso si podría ser aplicable.
También sería en parte efectiva esta regla ante un posible ataque, en el caso de que hubiese un ataque al primer servidor y colapse, todavía tendríamos el segundo servidor para atender el 20% de direcciones ip restantes, lo único que habría muchos clientes que se quedarían sin direccion ip, por tanto sin poder acceder a la red.
Resumiendo pienso que podríamos aplicarlo en una red pequeña y tendríamos una mayor garantía que en una red de gran tamaño, en este caso tendríamos que buscar otras alternativas siempre poniéndonos en el peor de los casos, por ejemplo, que cayera el primer servidor por cualquier circunstancia.
Bueno mencionar que en mi opinion la regla no es ni buena ni mala
dsde un punto de vista primario si no que su valoracion dependera del ambito al que se aplique esta misma regla.
Como sabemos un srvidor dhcp permite dar a las distintas maquinas de nuestra red ip parametros de configuracion automaticamante ahorrando asi grantrabajo al administrador.
La regla 80/20 se basa en la utilizacion de dos servidores dhcp en los cules se tiene el servidor 1 con el 80% de las direcciones ip y el s2 con el 20%.
La regla esta ideada para dar mas estabilidad a la red por ejemplo si cayera un servidor el secundario estaria operativo como resguardo etc…
Pero aqui viene la cuastion esta regla es la mejor opcion a aplicar a nuestra red?
Bueno en mi opinión todo depende de la red a la que apliquemos esta regla ya que la regla funcionara bien cuando estemos hablando de una red relativamente pequeña , pero si aplicamos la misma en una red gigante nos causaria mas de un problema ya que si imaginamos que cae el s1 solo tenemos un 20% de direcciones disponibles no podriamos dar conectividad a la granmayoria de los ordenadores si se conectara masivamente por ello en estos casos existen otras reglas 50/50, en los cuales nos aseguramos no una total disponibilidad pero si lo mas alta posible.
Mientras que si tuvieramos una red mas pequeña seria mas viable llevar a cabo la regla 80/20.
En definitiva las reglas de aplicación en servidores dhcp depende de el ambito,tamaño… de la red en la cual instalemos los servidores.
Informacion:
http://translate.google.com/translate?hl=es&sl=en&u=http://www.microsoft.com/technet/prodtechnol/windows2000serv/reskit/cnet/cncb_dhc_ogjw.mspx&sa=X&oi=translate&resnum=2&ct=result&prev=/search%3Fq%3Ddhcp%2B80/20%26hl%3Des%26lr%3D%26client%3Dfirefox-a%26rls%3Dorg.mozilla:es-ES:official%26sa%3DG
http://www.enterpriseitplanet.com/networking/features/article.php/11315_3327231_3
http://es.wikipedia.org/wiki/Dynamic_Host_Configuration_Protocol#Asignaci.C3.B3n_de_direcciones_IP
http://www.publispain.com/adsl/que_es_dhcp.html
El tamaño (de la red) no importa como bien ha explicado #19 (estamos hablando de proporciones, que no de porciones 😉 ). Tened en cuenta que el DHCP asigna IPs durante un tiempo; si el servicio cae, los equipos que ya están configurados mantendrán dicha configuración durante ese tiempo de vigencia y no se deben volver a configurar. Si cae el servidor principal, el 20% quedaría para las peticiones que lleguen a partir de ese momento, quedando el resto configurado durante el tiempo que marca su alquiler. Es IMPORTANTÍSIMO ajustar el tiempo de alquiler o, dicho de otro modo, sí debería importar para decidir qué reparto hacemos otros parámetros que, como administradores, podemos configurar siendo un claro ejemplo el tiempo de alquiler de las IPs.
También se debe considerar el tiempo de conexión de nuestros clientes, sobre el que no podemos actuar, y que afecta al buen funcionamiento del reparto establecido (80/20, …).
Para asignaciones estáticas (como menciona #12) ¿qué problema tenemos con cualquier reparto del ámbito, el que sea ya que sólo cambiaría el número de afectados si cae uno de los servidores?
No olvidar que todo esto se realiza para aumentar la disponibilidad, la tolerancia a fallos del servicio (bueno, también para equilibrado de carga) pero aún así … ¿mejor entonces 100/100? ¿por qué no 100/100 directamente? Pero no considerar el escenario que indica #4 para este modelo; no es habitual que tengamos (desde el punto de vista de un ISP, por ejemplo) más IPs que clientes: mal iría la empresa 😉 .
Otra circunstancia que debemos valorar es, como muy bien se comenta en #4, la situación de los servidores en nuestra red. Con 80/20, los servidores deben estar en redes distintas, el servidor “secundario” que dispone del 20%, normalmente se sitúa en una subred remota.
Como opción importante a valorar para aumentar la disponibilidad del servicio es implementar un cluster. Muy acertado Victor en #4 comentando todas las opciones, pero no indica qué implica un cluster (aunque esto se sale un poco de Redes para entrar más en Sistemas y Servicios).
Por último ¿podemos usar una estrategia combinada de clusters y segmentación de ámbito (80/20, …)? ¿Qué nos proporcionaría esta solución?
Utilizando la combinación de clúster y por ejemplo el reparto 80/20,
lo que hacemos es aumentar la tolerancia a fallos (también es más caro),
porque por ejemplo como se comentaba en #4, si usamos 80/20
y falla el servidor local, corremos el riesgo de que el servidor remoto
(20) se quede sin direcciones disponibles. En cambio si hacemos un clúster en el que hay redundancia con el servidor local y además tiene el 80% del ámbito, para que tengamos que recurrir al servidor secundario (20%) tiene que fallar primero el servidor local, y posteriormente su réplica.
Esta solución combinada proporciona una alta tolerancia a fallos, comparable a la que ofrecería un clúster de mayor envergadura, pero a un coste inferior.
Por último aquí dejo un enlace de un sistema de alta tolerancia dhcp, prometeo x100:
http://www.divisait.com/contenidos/content.asp?contentid=488&nodeid=118
El 80/20 trabaja bien a no ser que que se tarde mas de unas horas en conseguir reactivar un servidor DHCP caido. O a no ser que se haya configurado para menos de tres dias porque la red es una clase, una conferencia o una coexion a moviles que se conectan remotamente. Por causas como estas muchos administradores prefieren la clasica 50/50 que trabaja mejor en una sola subred de todas formas, a condicion de que ambos servidores tengan bastantes direcciones designadas para cubrir las necesidades de los clientes de la red. entonces si un servidor cae, el otro puede aumentar el flujo hasta que el otro servidor se reactive nuevamente.
El modo típico de poner esto en práctica es con exclusiones, por ejemplo:
Server 1
Scope 10.0.0.1 to 10.0.0.250
Exclusion 10.0.0.126 to 10.0.0.250
Server 2
Scope 10.0.0.1 to 10.0.0.250
Exclusion 10.0.0.1 to 10.0.0.125
Pero tambien se pueden designar por separado:
Server 1 scope 10.0.0.1 to 10.0.0.125
Server 2 scope 10.0.0.126 to 10.0.0.250
Solo se debe tener cuidado de no solapar las direcciones de los dos servidores.
Tambien he visto referencias al 100/100 pero por su coste y riesgos en muchas paginas la descartan. Por lo que he visto la 80/20 es la mas practica, mientras que la 50/50 es la mas segura.
http://www.windowsnetworking.com/kbase/WindowsTips/Windows2000/AdminTips/DHCPandDNS/EnsuringDHCPServerAvailability.html
http://www.webservertalk.com/archive48-2006-5-1483497.html
http://www.windowsnetworking.com/…/Windows2000/AdminTips/DHCPandDNS/EnsuringDHCPServerAvailability.html
Como bien han dicho, la regla 80/20 funciona, pero al parecer, como tambien han mencionado 😉 , si tienes muchas conexiones puede caer el servidor, por lo que mucha gente recomienda usar 2 servidores al 50/50. Tambien se puede configurar la subnet al 30%, quedando 70/30. Realmente depende de el uso que le des a tu red, aunque el sistema más fiable va a seguir siendo el 50/50, en mi opinion :-).
Saludos
Un posible uso que he encontrado para la regla 80/20 en la que puede ser útil, y que en mi opinion esta vez los de microsoft estan bastante acertados en su uso, es en el uso por ejemplo de dos servidores dhcp para 2redes distintas.
Suponiendo que el servidor1 DHCP tiene el 80% de las direcciones de la red 1, y el 20% de las direcciones de la red2. Por otro lado, el servidor 2DHCP, tiene el 20% de las direcciones de la red 1, y el 80% de la red 2.
En esta situacion, conseguimos que ante un fallo de uno de los servidor, siempre tengamos las dos redes funcionando. Cosa que no ocurriria con una distribucion de redes de 100/100.(todas direcciones de una red en un servidor y todas la direcciones de la otra red en el otro servidor)
Enlaces:
http://management.about.com/cs/generalmanagement/a/Pareto081202.htm
http://www.aafp.org/fpm/20000900/76the8.html
http://www.windowsdevcenter.com/pub/a/windows/2004/04/13/DHCP_Server.html
Hola,
Lo primero decir que el enlace del post, ahora parece no funcionar… dice “We’re sorry, but we were unable to service your request. You may wish to choose from the links below for information about Microsoft products and services.”.
Como ha comentado #22 y se puede leer en el enlace que dejo más abajo en cuanto al tema que aquí tratamos de elevar el nivel de tolerancia a fallos en redes, y más concretamente en la distribución de servidores dhcp para este fin, decir que en este caso “el tamaño no importa” y así como es posible crear un cluster de alta disponibilidad (HA Cluster) hay soluciones más baratas y simples, como la 50/50, 100/100, 80/20.
Porque no la 50/50? Bien… en la 50/50 tenemos dos servidores dhcp los cuales tiene la misma cantidad de direcciones ip cada uno. Este enfoque se creó con el fin de crear algo de redundancia y tolerancia a fallos pero si uno de los dos servidores asignara más ips que el otro, podría darse el caso que se quedara sin ips para asignar, en este momento si es el otro servidor el que cae, nos quedaríamos con que no existe ningún servidor para ofrecer una ip (uno porque no tiene disponibles y el otro que si tiene porque esta caido), con lo que el cliente no podría conectar a la red.
Porque no 100/100? En el caso de tener este enfoque para la tolerancia a fallos en dhcp, necesitamos el doble de las ips necesarias, es decir si tenemos 500 clientes, necesitamos 1000 ips disponibles para poder asignar.
Al igual que la regla 50/50, ésta funciona de la misma manera en el sentido que los dos servidores dhcp tienen todo el rango disponible y funcionan con exclusiones del rango.
El problema de esta regla es la creación de las subredes, teniendo en cuenta que hacer disponibles el doble de direcciones IPs, normalmente se necesitará una red de clase B o A.
Como contra está la mayor tarea administrativa a la hora de diseñar la red teniendo en cuenta este factor, pero como pro tenemos que aunque caiga uno de los dos servidores, un cliente siempre tendrá IP, además que ofrece mayor flexibilidad porque puedes desconectar uno de ellos para tareas administarrtivas sin afectar al funcionamiento de la red.
80/20: Esta regla reparte las ips en la proporcion 80% en el servidor primario y 20% en el secundario.
Esta regla es ideal cuando el servidor primario esta situado en la red principal, y el secundario en una pequeña red remota.
Lo único que hay que tener cuidado es que si el servidor primario se desconecta, que el tiempo offline no sea muy largo, de otro modo el servidor secundario se quedará sin IPs, aquí es donde cobra vital importancia el tiempo de alquiler de las IPs ya comentado en anteriores posts.
Os dejo el enlace sobre el que os hablaba:
http://searchwincomputing.techtarget.com/tip/0,289483,sid68_gci1197499,00.html
Saludos