3.01 - Explicar el propósito de la distribución de la carga entre varios servidores
Distribución de la carga
La cantidad de conexiones y de utilización que una aplicación puede tener viniendo del núcleo de los usuarios a menudo puede exceder con mucho la capacidad de rendimiento de un único servidor que aloje la aplicación. La necesidad para la distribución de las peticiones entrantes y procesar la carga de las respuestas a través de un grupo de servidores que ejecutan la misma aplicación o servicio es evidente por sí mismo. El truco para distribuir la carga es encontrar la solución de equilibrio de carga correcto, para luego implementarla de la manera más eficaz. Así se asegura que las funciones de las aplicaciones no se rompen ya que los usuarios usan todos los servidores del grupo.
3,01 - Dado un entorno, determina el algoritmo de balanceo de carga adecuado que logra un resultado deseado
Métodos de balanceo de carga en Local Traffic Manager
Hay varios métodos de balanceo de carga disponibles en el sistema BIG-IP para el tráfico de equilibrio de carga a miembros de la reserva.
Método Round Robin
Descripción
Este es el método de balanceo de carga por defecto. modo de Round Robin pasa cada nueva solicitud de conexión al siguiente servidor en línea, con el tiempo la distribución de conexiones de manera uniforme en toda la gama de máquinas que son de carga equilibrada.
Uso
Funciona bien en
la mayoría de las configuraciones, especialmente si los equipos que
balancean la carga son aproximadamente iguales en la velocidad de
procesamiento y la memoria.
Método Ratio (miembro) Ratio (nodo)
Descripción
Local Traffic Manager distribuye conexiones entre los miembros de la
reserva o nodos en una rotación estática de acuerdo con la relación
de pesos que se definan. En este caso, el número de conexiones que cada
sistema recibe a través del tiempo es proporcional a la relación de
peso que ha definido para cada miembro de la agrupación o nodo. Se
establece una relación de peso cuando se crea cada miembro de la
agrupación o nodo.
Uso
Estos son métodos de balanceo de carga estática basan la distribución en la relación de pesos especificada por el usuario que es proporcional a la capacidad de los servidores.
Método Dynamic Ratio (miembro) ynamic Ratio (nodo)
Descripción
Los métodos dinámicos Relación seleccionan un servidor
basado en diversos aspectos del análisis del rendimiento del servidor
en tiempo real. Estos métodos son similares a los métodos de
relación, excepto que con los métodos de relación dinámica, los
pesos de proporción los genera el sistema, y los valores de los pesos
de proporción no son estáticos. Estos métodos se basan en la
monitorización continua de los servidores, y los pesos de proporción
están por lo tanto continuamente cambiando.
Nota:
Para implementar el equilibrio de carga dinámica, primero debe
instalar y configurar el software de servidor necesario para estos
sistemas, y luego instalar el monitor de rendimiento apropiado.
Uso
Los métodos de relación dinámicos se utilizan específicamente para equilibrar la carga de tráfico a plataformas de servidores de RealNetworks, RealSystem, plataformas de Windows equipadas con Windows (WMI), o cualquier servidor equipado con un agente SNMP, como el agente SNMP UC Davis o el agente del servidor SNMP de Windows 2000.
Métod Fastest (nodo) Fastest (aplicación)
Descripción
Los métodos más rápidos seleccionan un servidor basado en el menor
número de sesiones en curso. Estos métodos requieren que se asigne una capa 7 y un tipo de perfil TCP al servidor virtual.
Nota:
Si está activada la función OneConnect, los métodos
"Least Connections" no incluyen las conexiones inactivas en los cálculos de la hora de
seleccionar un miembro de la agrupación o nodo. Los métodos "Least Connections" utilizan sólo las conexiones activas en sus cálculos.
Uso
Los métodos más rápidos son útiles en entornos donde los nodos se distribuyen a través de redes lógicas separadas.
Método Least Connections (usuario) Least Connections (nodo)
Descripción
En los métodos Least Connections, el
Administrador de Tráfico Local pasa una nueva conexión con el miembro
de agrupación o nodo que tiene el menor número de conexiones activas.
Nota:
Si está activada la función OneConnect, los métodos Least Connections
no incluyen las conexiones inactivas en los cálculos a la hora de
seleccionar un miembro de la agrupación o nodo. Los métodos Least Connections utilizan sólo las conexiones activas en sus cálculos.
Uso
Los métodos Least Connections funcionan mejor en entornos donde los servidores tienen capacidades similares. De lo contrario, se puede producir una cierta cantidad de latencia. Por ejemplo, considere el caso donde una agrupación tiene dos servidores de diferentes capacidades, A y B. El servidor A tiene 95 conexiones activas con un límite de conexión de 100, mientras que el servidor B tiene 96 conexiones activas con un límite de conexión mucho mayor, de 500. En este caso, el método Least Connections selecciona al servidor A, el servidor con el menor número de conexiones activas, a pesar de que el servidor está a punto de alcanzar la capacidad. Si tiene servidores con distintas capacidades, considere el uso de los métodos "Weighted Least" en vez de Least Connections.
Método Weighted Least Connections (usuario) Weighted Least Connections (nodo)
Descripción
Al igual que los métodos Least Connections, estos métodos de
balanceo de carga selecionan los miembros de la agrupación o nodos basados en
el número de conexiones activas. Sin embargo, los métodos Weighted Least Connections también basan sus selecciones en la capacidad del
servidor. El método Weighted Least Connections (miembro)
especifica que el sistema utiliza el valor especificado en Límite de
conexión para establecer un algoritmo proporcional para cada miembro de
la agrupación. El sistema basa la toma de decisiones de equilibrio de
carga en esa proporción y el número de conexiones actuales a ese
miembro de la agrupación. Por ejemplo, el miembro A tiene 20 conexiones y su
límite de conexión es 100, por lo que es en 20% de la capacidad. Del
mismo modo, el miembro B tiene 20 conexiones y su límite de conexión es
200, por lo que es en 10% de la capacidad. En este caso, el sistema
selecciona al miembro B. Este algoritmo requiere que todos los
miembros tengan un límite de conexiónes "non-zero" configurado. El método Weighted Least Connections (nodo)
especifica que el sistema utiliza el valor especificado en la
configuración del límite de conexión del nodo y el número de
conexiones actuales a un nodo para establecer un algoritmo proporcional.
Este algoritmo requiere que todos los nodos utilizados por los miembros
de la agrupación tengan un límite de conexión "non-zero" especificado.
Si todos los servidores tienen la misma capacidad, estos métodos de
balanceo de carga se comportan de la misma manera que los métodos Least Connections.
Nota: Si la función está activada OneConnect, los
métodos menos tabuladas Conexiones no incluyen las conexiones inactivas
en los cálculos de la hora de seleccionar un miembro de la piscina o
nodo. Los métodos menos tabuladas conexiones utilizan sólo las
conexiones activas en sus cálculos.
Con los métodos observados,
los nodos se clasifican en base a la cantidad de conexiones. Los
métodos Observado seguimiento del número de capa 4 conexiones a cada
nodo en el tiempo y crean una relación de equilibrio de carga.
Uso
Los métodos Weighted Least Connections funcionan mejor en entornos en los que los servidores tienen capacidades diferentes. Por ejemplo, si dos servidores tienen el mismo número de conexiones activas, pero un servidor tiene más capacidad que el otro, Local Traffic Manager calcula el porcentaje de la capacidad que se utiliza en cada servidor y utiliza ese porcentaje en sus cálculos.
Observed (miembro) Observed (nodo)
Definición
Con los métodos observaded, los nodos se clasifican en base a la cantidad de conexiones. Los métodos Observaed hacen un seguimiento del número de conexiones de capa 4 a cada nodo en el tiempo y crean una relación de balanceo de carga.
Uso
La necesidad de los métodos observed es rara, y no se recomienda para grandes agrupaciones.
Método Predictive (miembro) Predictive (nodo)
Descripción
Los métodos predictive utilizan los métodos de clasificación
utilizados por los métodos observed, donde los servidores se
clasifican de acuerdo al número de conexiones actuales. Sin embargo,
con los métodos predictive, Local Traffic Manager analiza la
tendencia de la clasificación con el tiempo, la determinación de si el
rendimiento de un nodo está mejorando actualmente o en descenso. Los
servidores con el ranking de rendimiento que actualmente están
mejorando, en vez de disminuir, reciben una mayor proporción de las
conexiones.
Uso
La necesidad de que los métodos predictive es rara, y no se recomienda para grandes agrupaciones.
Least Sessions
Descripción
El método Least Sessions selecciona el servidor que actualmente
tiene el menor número de entradas en la tabla de persistencia. El uso
de este método de balanceo de carga requiere que el servidor virtual
de referencia sea de un tipo de perfil que rastrea las conexiones persistentes, como el perfil Source Address Affinity o el Universal.
Nota: Los métodos Least Sessions son incompatibles con la persistencia de cookies.
Uso
El
método Least Sessionss menos funciona mejor en ambientes donde los
servidores u otros equipos que usted es el balanceo de carga tienen
capacidades similares.
Ratio Least Connections
Descripción
El método Ratio Least Connections hace que el sistema seleccione el miembro de agrupación según la relación entre el número
de conexiones que cada miembro de la agrupación tiene activas.
3.01 - Explicar el concepto de persistencia
Persistente y persistencia, ¿Cuál es la diferencia?
Mientras que la base conceptual de la persistencia y lpersistente es esencialmente la misma, en realidad se refieren a dos conceptos diferentes técnicas.
Tanto persistente como persistencia se relacionan con la manipulación de las conexiones. El primero se utiliza a menudo como una descripción general del comportamiento de HTTP y, necesariamente, las conexiones TCP, aunque también se utiliza en el contexto de las conexiones de base de datos. Este último está más a menudo relacionado con el manejo de conexiones TCP / HTTP, pero casi exclusivamente en el contexto de equilibrio de carga.
Persistente
Las conexiones persistentes son las conexiones que se mantienen abiertas y reutilizadas. La forma más comúnmente implementada de conexiones persistentes es HTTP, con conexiones de bases de datos en segundo lugar.
Las conexiones HTTP persistentes se llevaron a cabo como parte de la especificación HTTP 1.1 como un método para mejorar la eficiencia de HTTP en general. Antes de HTTP 1.1 en un navegador general tenías que abrir una conexión por cada objeto en una página con el fin de recuperar todos los recursos apropiados. A medida que el número de objetos en una página creció, se convirtió cada vez en más ineficiente y redujo significativamente la capacidad de los servidores web mientras que causaban a los navegadores parecieran lentos para recuperar los datos. HTTP 1.1 y el encabezado Keep-Alive de HTTP 1.0 están destinadas a mejorar el rendimiento de HTTP mediante la reutilización de las conexiones TCP para recuperar objetos. Se realizan las conexiones persistentes tal que puedan ser reutilizadas para enviar múltiples peticiones HTTP utilizando la misma conexión TCP.
Del mismo modo, esta noción fue implementada basada en proxy de balanceo de carga como una forma de mejorar el rendimiento de las aplicaciones web y aumentar la capacidad en los servidores web. Las conexiones persistentes entre un balanceador de carga y servidores web por lo general se conoce como multiplexación TCP. Al igual que los navegadores, el balanceador de carga abre un par de conexiones TCP a los servidores y luego los vuelve a utilizar para enviar múltiples peticiones HTTP.
Las conexiones persistentes, tanto en los navegadores como en los balanceador de carga, tienen varias ventajas:
• Menos tráfico de red debido a la menor montaje/desmontaje de TCP. Se requiere no menos de 7 intercambios de datos para configurar y derribar una conexión TCP, por lo tanto cada conexión que puede ser reutilizada reduce el número de intercambios requiere y que resulta en menos tráfico.
• Mejora de rendimiento. Debido a que las solicitudes posteriores no necesitan configuración y desmantelamiento de una conexión TCP, las solicitudes llegan más rápido y las respuestas se devuelven más rápido. TCP tiene mecanismos incorporados en, por ejemplo, el tamaño de ventana, para hacer frente a la congestión de la red. Las conexiones persistentes dan a TCP el tiempo para ajustarse adecuadamente a las condiciones actuales de la red, lo que mejora el rendimiento general. Las conexiones no persistentes no son capaces de adaptarse porque se abren y se cierran rápidamente.
• Menos sobrecarga del servidor. Los servidores son capaces de aumentar el número de usuarios simultáneos ya que cada usuario requiere un menor número de conexiones para completar las solicitudes.
Persistencia
La Persistencia, por el contrario, se relaciona con la capacidad de un balanceador de carga u otra solución de gestión del tráfico para mantener una conexión virtual entre un cliente y un servidor específico.
La persistencia asegura que una vez que un cliente ha hecho una conexión a un servidor específico, las solicitudes posteriores se envían al mismo servidor. Esto es muy importante para mantener el estado y la información específica de la sesión en algunas arquitecturas de aplicaciones y para el manejo de aplicaciones con SSL habilitado. Cuando la primera solicitud es vista por el balanceador de carga se elige un servidor. En las solicitudes posteriores del equilibrador de carga elegirá automáticamente el mismo servidor para asegurar la continuidad de la solicitud o, en el caso de SSL, para evitar el proceso de cómputo intensivo de renegociación. Esta persistencia se implementa a menudo con el uso de cookies, pero puede basarse en otros atributos que identifican como la dirección IP. Los balanceadores de carga que se han desarrollado en los controladores de entrega de aplicaciones y son capaces de implementar persistencia basado en cualquier pieza de datos en el mensaje de la aplicación (carga útil), las cabeceras, o al en el protocolo de transporte (TCP) y las capas de protocolo de red (IP).
Algunas de las ventajas de la persistencia son:
• Evitar la renegociación de SSL. Al asegurar que las conexiones SSL habilitadas se dirijan al mismo servidor durante una sesión, es posible evitar la renegociación de las claves asociadas a la sesión, que es intensivo en recursos. Esto mejora el rendimiento y reduce la sobrecarga en los servidores.
• No hay necesidad de volver a escribir las aplicaciones. Las aplicaciones desarrolladas sin balanceo de carga en mente se puede romper cuando se despliega en una arquitectura de carga equilibrada, ya que dependen de los datos de sesión que se almacenan sólo en el servidor original en el que se inició la sesión. Los balanceadores de carga con capacidad de persistencia de sesión garantizan que las aplicaciones no se rompan al dirigir siempre peticiones al mismo servidor, la preservación de los datos de la sesión sin necesidad de que se reescriban las aplicaciones.
Resumen
Las conexiones persistentes son conexiones que se mantienen abiertas, para que puedan ser reutilizadas para enviar varias solicitudes, mientras que la persistencia es el proceso de garantizar que las conexiones y las solicitudes posteriores se envían al mismo servidor a través de un balanceador de carga u otro dispositivo de proxy.
Ambos son aspectos importantes de la comunicación entre clientes, servidores y mediadores como balanceadores de carga, y aumentan el rendimiento general y la eficiencia de la infraestructura, así como la mejora de la experiencia del usuario final.
No hay comentarios:
Publicar un comentario