¿Qué es la latency (latencia)?

La latencia es el tiempo que tarda una petición en ser procesada, desde que se envía hasta que se recibe la respuesta.

⏱️

Definición

La latencia (latency) es la medida del tiempo que transcurre desde que se inicia una petición o acción hasta que se recibe la respuesta o se completa el resultado. Se expresa típicamente en milisegundos (ms).

🎯

Propósito

Medir la latencia permite evaluar la rapidez de respuesta de un sistema, identificar cuellos de botella y garantizar que la experiencia del usuario cumple con los niveles de servicio esperados.

📊

Métricas

Las métricas de latencia más comunes incluyen: P50 (mediana), P95, P99 y P99.9. Los percentiles altos son especialmente importantes para entender el rendimiento en los peores casos.

🔄

Latencia vs Throughput

Mientras que la latencia mide cuánto tarda una operación individual, el throughput mide cuántas operaciones se completan en un periodo de tiempo. Un sistema puede tener baja latencia pero bajo throughput, o viceversa.

🔍

Fuentes

La latencia total de un sistema incluye latencia de red, latencia de procesamiento, latencia de acceso a datos y latencia de serialización/deserialización.

🍄

¿Quieres saber más?

Si te interesa saber más acerca de Latency, escríbeme por linkedin. Me encanta compartir ideas, dudas y curiosidades sobre estos temas, así que no dudes en pasarte por ahí. ¡Nos leemos!