Cuando se trata de mejorar la velocidad de carga del sitio, debe encargarse de cada optimización posible. Uno de los factores es la optimización de la latencia de la red, que a menudo se ignora. En este artículo, nos profundizaremos en la latencia.
¿Qué es la latencia de red?
Causas de latencia de red
¿Cómo se mide?
Optimizaciones
¿Qué es la latencia de red? La latencia de la red es el tiempo requerido para que los datos viajen a través de una red y regresen a la fuente. Una red envía una solicitud al servidor para recibir los datos. La solicitud transmite con la velocidad de la luz y trae el contenido solicitado, es decir, los paquetes de datos solicitados.

En términos más simples y fronterizos, cuando carga una página web al navegador, HTTP envía aplicaciones al servidor. El servidor lee la solicitud de encabezado y devuelve los datos, que luego se analizan en el navegador. El tiempo requerido para moverse a toda la red y proxies se conoce como la latencia de la red. Medimos el viaje de ida y vuelta por debajo de la latencia de la red, porque las computadoras no inician una nueva conexión TCP hasta que se complete la anterior. Entonces, hasta que lleguen los datos solicitados, el navegador está esperando antes de crear una nueva solicitud. Aunque la velocidad de transmisión de datos es alta (similar a la velocidad de la luz), todavía hay muchos obstáculos que contribuyen al tiempo de latencia de la red.
Causas de latencia de red: la latencia de la red depende de dos factores principales: distancia geográfica y proxies (equipo de comunicación). Cuanto mayor sea la distancia entre los dos puntos, mayor es el tiempo de latencia en la transmisión. También habrá varios puntos de equipo para saltar y ajustar los datos. Entendamos las causas en profundidad: # 1 La distancia entre la fuente y el destino La mayor razón del tiempo de latencia de alta latencia es a menudo la larga distancia entre el usuario y el servidor web. Debido a la larga distancia, la mayor parte de la red utiliza señales eléctricas, donde es brillante o inalámbrico en lugar de cables y fibra óptica. Las redes inalámbricas tienen un tiempo de latencia de alta en comparación con las redes de cables. Más, una larga distancia también significa varias capas de equipos de red, muchos enrutadores y puentes. Los datos deben saltar diferentes conexiones y cambiar los puentes. La tarea de esperar un nuevo dispositivo es tomar tiempo y se agrega al tiempo de latencia. A medida que aumenta el número de dispositivos, aumenta el tiempo de búsqueda. #2 bloques múltiples dispositivos se utilizan como puentes para transmitir datos de un punto a otro. No todos los enlaces de red tienen la misma capacidad para transportar datos. Un enlace de red puede manejar fácilmente los datos a una velocidad de 1 Gbps, mientras que el otro puede luchar con él. Luego están los túneles privados WAN y VPN a través de los cuales deben pasar los datos.
En cualquier momento de la red, los datos pueden experimentar una conexión en la que la capacidad de transferencia de datos es baja. Por lo tanto, los paquetes se abandonan o se colocan en la cola. En ambos casos, la transmisión retrasa y aumenta la latencia de la red. Como el TCP debe recibir los datos antes de enviar la nueva solicitud, retrocede los datos, que se recopilan en el proceso de almacenamiento en búfer, generalmente aumentando el tiempo de latencia significativo. # 3 QoS ineficiente o calidad de servicio significa priorizar datos críticos para que no alcancen la cola y pasen rápidamente. La red da prioridad a estos datos durante la transmisión y los mueve rápidamente sin esperarlos en cualquier momento. Pero si el QoS no está configurado y configurado correctamente, las redes tratarán todos los datos como los mismos. Entonces, en los bloqueos y otros puntos de congestión, los datos críticos y no críticos esperarán en la cola de acuerdo con el momento de la llegada. QoS ineficiente no aumenta el tiempo de latencia, pero afecta la transmisión de datos críticos. #4 El tiempo de propagación es solo el tiempo requerido para que los datos cubran la distancia entre dos puntos. Nunca puede ser cero porque, si hay una distancia, el viaje consumirá tiempo para cubrirlo. Sin embargo, puede estar más cerca de cero. Si los paquetes de datos son pesados, entonces el tiempo de propagación será más alto. A veces, un servidor web no tiene la compresión GZIP activada, lo que hace que los paquetes súper pesados.
¿Cómo medir la latencia de la red? La latencia de la red se calcula en milisegundos. Se observan dos métricas para medir el tiempo de latencia. RTT y TTFB. RTT: Doug Duración: es una forma más común y popular de medir la latencia de la red. Contiene el tiempo requerido para transferir un paquete de datos de un punto a otro y luego volver a la fuente. El tiempo requerido para el ciclo completo de solicitud-respuesta. TTFB: Tiempo hasta el primer byte: registre el tiempo requerido para recibir los primeros datos de bytes a la fuente. Es un tiempo de tracción puntual. RTT es una forma más popular de medir la latencia de la red, ya que no requiere puntos de recopilación de datos en el destino. Un solo punto en la fuente es suficiente para medir la duración entre la solicitud enviada y la respuesta recibida. Prueba la latencia con ping ping es una herramienta rápida, simple y eficiente para medir la latencia de la red. Se incorpora a cada computadora y funciona en IMCP (Protocolo de mesaje de control de Internet). Por lo general, el administrador de la red usa Ping para medir rápidamente la latencia de la red, ya que no requiere ningún software adicional. Cómo usar ping:
Ir a la línea de comando
Tipo de ping (SiteUrl)
ingresar
Después de ejecutar su pedido, la computadora envía 32 bytes de datos a SiteUrl y calcula el tiempo requerido para recibir la respuesta del servidor.
No importa cuán útil y rápido sea, no tiene función para resolver el problema o identificar los bloqueos. Pero otras herramientas pueden ayudarlo a reconocer los problemas.
Pruebe la latencia de la red con la herramienta en línea: pruebe el sitio de ping de ping24x7
Site24x7 ofrece una prueba de ping gratuita para sitios web y servidores. Proporciona tiempo RTT desde múltiples ubicaciones. Revisalo ahora. La prueba Ping DotcomToolsDotools calcula el tiempo de retorno de más de 15 ubicaciones. También es una herramienta gratuita para los sitios de ping. Revisalo ahora. Formas de reducir la latencia:

Use un CDN
Http/2
Reducir las solicitudes HTTP externas
Memorizar en caché
Toma el control de DNS
Pre -control
Alojamiento
# 1 Use un CDN CDN disminuye la latencia al reducir la distancia geográfica entre el usuario y el servidor.
Cuando el tráfico llega de todo el mundo, debe tener centros de datos en todo el mundo. Significa que tiene que alojar en varios países y alojar una copia de sus datos a esos hosts, que no es factible para ningún negocio en línea. Por eso hay CDN. Content Delivery Network es una red de POP repartidos por todo el mundo. Una vez implementado, cada POP recibe una copia espejo de su sitio cuando el visitante solicita una página, los datos se transfieren desde el CDN POP más cercano, que realmente disminuye la distancia entre el usuario y el servidor central. A medida que se reduce la distancia, el tiempo de latencia disminuye.
#2 HTTP/2 Casi el 70% de la web se ejecuta en HTTP 1.1, que es una tecnología de 20 años, y todavía funciona excelente. Sin embargo, la alta tasa de latencia es un problema grave. Con la tecnología emergente de desarrollo web, las páginas web combinan varios tipos de datos. La página consiste en Java, CSS, HTML, PHP, etc. cada vez que HTTP tiene que tomar un activo; Se forma una nueva conexión TCP. HTTP/2 resuelve este problema. HTTP/2 reduce la latencia leyendo una sola conexión TCP para continuar el ciclo de respuesta de solicitud. Minimiza el número de viajeros de datos del transmisor al receptor, con transferencias paralelizadas. HTTP/2 aporta una diferencia significativa en la tasa de latencia. #3 Reducir las solicitudes HTTP externas Los sitios web modernos tienen muchos scripts de terceros en ellos. Cumplen la tarea de registrar, analizar y comprender el comportamiento del usuario en el sitio. Algunos códigos están ejecutando anuncios;
Algunos hacen el mantenimiento del sitio. Tener muchos scripts de terceros en el sitio afecta negativamente la velocidad de carga. Cada solicitud HTTP externa tiene su propio tiempo de latencia, lo que contribuye al tiempo de latencia general de la página. Aunque la mayoría de los servicios de calidad de tercera parte utilizan CDN, todavía medimos la latencia en MS y cada MS es importante. Siempre pruebe la velocidad de carga del script de terceros antes de instalarla en su sitio. Asegúrese de que el servicio esté alojado en una infraestructura robusta. #4 Cache La memorización del navegador en caché también puede reducir el tiempo de latencia, ya que el navegador no debe recibir el contenido estático del servidor. Los navegadores modernos son fuertes y capaces de almacenar los datos del sitio en cookies. Cuando el usuario vuelve a cargar la URL, el navegador puede igualar el contenido del servidor con el contenido del navegador usando etiquetas electrónicas, y si se ajusta, lo carga de las cookies. Es un método eficiente y simple. Consulte los mejores complementos de caché para implementarlos en su sitio #5 DNS Tomar DNS es un concepto simple, pero mejora la velocidad del sitio. En la precarga, el navegador realiza búsquedas DNS en segundo plano para todos los enlaces en la página web dada. De esta manera, la búsqueda de DNS ya se está llevando a cabo antes de que el usuario haga clic en cualquier enlace. Aunque este método tiene un impacto en el ancho de banda, debido a que el navegador toma el DNS para todos los enlaces en la página, mientras que el usuario solo puede hacer clic en un solo enlace. El DNS que se hace cargo se puede agregar a una determinada URL agregando la etiqueta Rel = “DNS-Prefetch” al atributo del enlace.
Latencia de la red: ¿Cómo se mide y optimiza para la velocidad?
Tags Latencia de la red: ¿Cómo se mide y optimiza para la velocidad?
homefinance blog