Core Web Vitals 2026: el checklist práctico que sí entiendes
Las 3 métricas que Google usa para evaluar tu experiencia: LCP, CLS, INP. Aquí va qué miden, cuáles son los umbrales actuales y qué hacer concretamente para mejorarlos.
Qué son los Core Web Vitals
Core Web Vitalsson 3 métricas que Google usa para cuantificar la experiencia que perciben tus usuarios al cargar e interactuar con tu sitio. Forman parte del “Page Experience” y son factor de ranking confirmado desde 2021.
Cada métrica mide una dimensión distinta de la experiencia:
- LCP: ¿cuándo se ve la página “cargada”?
- CLS: ¿hay saltos visuales molestos mientras carga?
- INP: ¿el sitio responde rápido cuando hago clic o escribo?
Los 3 umbrales 2026
| Métrica | Bueno | Necesita mejorar | Pobre |
|---|---|---|---|
| LCP | ≤ 2.5s | 2.5s - 4.0s | > 4.0s |
| CLS | ≤ 0.1 | 0.1 - 0.25 | > 0.25 |
| INP | ≤ 200ms | 200ms - 500ms | > 500ms |
Google considera un sitio “optimizado” cuando el 75% de las visitas reales (no lab) caen en el rango “Bueno” para las 3 métricas. Es exigente.
LCP: Largest Contentful Paint
Qué mide: tiempo hasta que se renderiza el elemento de contenido más grande visible en pantalla. Típicamente la imagen hero, el H1, o un bloque de texto grande.
Por qué importa:es la métrica que el usuario percibe como “ya cargó”. Por debajo de 2.5s la página se siente rápida.
Causas comunes de LCP malo:
- Imagen hero sin optimizar (PNG/JPG sin compresión, sin WebP).
- Imagen hero sin atributo width/height definido.
- Servir imágenes desde CDN lento o sin caché.
- JavaScript bloqueante que retrasa el render inicial.
- Fonts custom sin preload (FOIT).
Cómo mejorarlo:
- Comprimir imagen hero, convertir a WebP o AVIF.
- Usar <link rel="preload"> para la imagen hero y fonts críticas.
- En Next.js: <Image priority /> en el hero.
- Diferir JS no crítico con defer o async.
- Servir desde CDN (Vercel, Cloudflare).
CLS: Cumulative Layout Shift
Qué mide: cuánto se mueven los elementos visuales mientras carga la página. Esos saltos que hacen que hagas clic en el botón equivocado.
Por qué importa: CLS alto frustra y se asocia con rebote. Google lo penaliza fuerte porque indica mala UX percibida.
Causas comunes:
- Imágenes sin atributos width/height.
- Ads que se insertan después del render inicial.
- Fonts que se cargan con FOUT (fuente cambia visualmente).
- Banners de cookies que empujan el contenido hacia abajo.
- Embeds (YouTube, Twitter) sin reserva de espacio.
Cómo mejorarlo:
- Todas las imágenes con width/height (o aspect-ratio en CSS).
- Banners de cookies como overlay (no inline) o reservar espacio fijo.
- Fonts con font-display: optional o preload + size-adjust.
- Embeds con contenedor de altura fija.
INP: Interaction to Next Paint
Qué mide: tiempo desde que el usuario interactúa (clic, tap, key) hasta que la página responde visualmente. Reemplazó a FID en marzo 2024.
Por qué importa:captura el “lag” percibido. Sitios con JS pesado pueden tener LCP ok pero INP horrible: cargan rápido, pero responden lento al interactuar.
Causas comunes:
- Hidratación de React/Vue pesada en mobile.
- Event handlers largos (cálculos complejos en clic).
- Third-party scripts (analytics, chat widgets, ads).
- Forced reflows en el DOM tras cada interacción.
Cómo mejorarlo:
- Code splitting agresivo. Cargar solo el JS necesario para la primera interacción.
- Mover trabajo pesado a Web Workers o pre-renderizar en servidor.
- Lazy-load third-party scripts no críticos (chat, analytics no esencial).
- Usar requestIdleCallback para tareas no urgentes.
- En Next.js: pasar componentes pesados a Server Components cuando sea posible.
Lab vs Field: por qué tu Lighthouse no coincide con Search Console
Hay dos formas de medir Core Web Vitals:
- Lab data: simulado en una máquina (tu Lighthouse local). Mismo entorno cada vez. Útil para iterar.
- Field data (CrUX): datos reales de Chrome de usuarios visitando tu sitio. Lo que Google usa para ranking.
Lighthouse local puede mostrar 95 mientras CrUX muestra “mala” porque tus usuarios reales tienen conexiones más lentas, dispositivos más débiles, o tu CDN responde peor en sus regiones.
Checklist práctico de optimización
- Imágenes: WebP/AVIF, con width/height, comprimidas, hero con preload.
- Fonts: Self-hosted o con preload, font-display optional/swap, max 2 familias.
- JS: Code splitting, defer no crítico, Server Components donde se pueda.
- CSS: Critical CSS inline, resto lazy. Sin unused CSS grande.
- Third-party: Auditar cada script externo. Eliminar lo no esencial.
- Embeds: Contenedores con altura fija para evitar CLS.
- Cookies banner: Overlay o altura reservada.
- CDN: Vercel, Cloudflare, Fastly. Especialmente si tu mercado es multi-país.
Preguntas frecuentes
¿Core Web Vitals son factor de ranking real?+
Sí, confirmado por Google desde 2021. Forman parte del componente Page Experience. No son el factor más fuerte, pero entre dos páginas con contenido similar, Google premia la más rápida y estable.
¿Por qué mi Lighthouse muestra 95 pero Search Console dice 'mala'?+
Lighthouse mide en laboratorio (tu máquina, conexión simulada). Search Console muestra datos reales de Chrome (CrUX) en dispositivos lentos, redes 4G en zonas remotas, etc. CrUX es la fuente oficial para ranking.
¿Cuánto tarda en reflejarse una mejora en Search Console?+
28 días. Search Console usa una ventana rolling de 28 días de data CrUX. Si haces cambios el día 1, la nueva métrica empieza a aparecer el día 1 pero el promedio actualizado se consolida al día 28.
¿FID sigue importando o ya no?+
FID fue reemplazado por INP en marzo 2024. INP captura más casos reales (cualquier interacción, no solo la primera). Si tu auditoría aún muestra FID, está usando data vieja.
¿Aplica para mobile, desktop o ambos?+
Ambos. Google reporta CrUX separado para mobile y desktop. Pero como indexa mobile-first, los Core Web Vitals mobile son más críticos. Empezar por ahí.
¿Sirve para SaaS con tráfico autenticado?+
Parcialmente. CrUX solo mide URLs públicas (sin auth). Para optimizar páginas autenticadas (dashboards, app interior) usa Real User Monitoring (RUM) propio: Vercel Speed Insights, Google Analytics 4 Web Vitals, etc.
Sigue leyendo
LCP, CLS, INP: las 3 métricas que Google mide y nadie te explica bien
Las siglas que más confunden en SEO técnico, explicadas en lenguaje claro con ejemplos visuales, causas comunes y fix concreto para cada una.
Cómo leer un reporte de Lighthouse sin perder la cabeza
Lighthouse muestra 4 scores, decenas de audits y miles de bytes de información. Esta guía enseña cómo leerlo en orden de impacto, qué ignorar y qué atacar primero.
Velocidad mobile vs desktop: por qué Google solo mira mobile (y qué hacer si tu mobile es lento)
Desde 2019 Google indexa mobile-first. Esto significa que tu sitio en mobile es lo que cuenta para ranking, no la versión desktop. Aquí va qué cambió y qué hacer.