Aller au contenu
Core Web Vitals 2026 : seuils et impact SEO

Core Web Vitals 2026 : seuils et impact SEO

Par Guillaume P.

8 min de lecture
Lien copié dans le presse-papiers
Guillaume P.

"Lighthouse dit 98, c'est bon." Non, c'est pas bon. Lighthouse dit 98 sur ton MacBook Pro en Wi-Fi 6. Tes vrais utilisateurs sur un Android milieu de gamme en 4G, c'est une autre histoire. Le fossé entre les tests labo et la réalité terrain est le premier problème que je vois sur la performance web en 2026.

Les Core Web Vitals ne sont plus une nouveauté. Introduits en 2020, intégrés comme signal en 2021, ils sont devenus un facteur mature. Mais l'arrivée d'INP comme métrique officielle, le durcissement effectif des exigences et les données récentes sur l'impact réel en classement changent la donne. Voici les seuils actuels, les données de corrélation et les impacts business mesurés.

Les trois métriques : LCP, INP, CLS#

Pour approfondir, consultez notre article sur Core Web Vitals : optimiser LCP, CLS et INP en 2026.

Le LCP (Largest Contentful Paint) mesure le temps nécessaire pour afficher le plus grand élément visible dans la fenêtre. C'est l'indicateur de vitesse perçue. Seuils 2025 : bon sous 2,5 secondes, a améliorer entre 2,5 et 4 secondes, mauvais au-dessus de 4 secondes. Une image hero non optimisée est la cause la plus fréquente d'un mauvais LCP.

INP (Interaction to Next Paint) a officiellement remplacé le FID le 12 mars 2024. La différence avec le FID est majeure. Le FID ne mesurait que le délai avant la première interaction. INP mesure la réactivité de toutes les interactions (clics, taps, frappes clavier) pendant toute la durée de la visite. Il inclut le délai d'entrée, le temps de traitement et le délai de présentation. Seuils : bon sous 200 millisecondes, a améliorer entre 200 et 500 ms, mauvais au-dessus de 500 ms. Google mesure l'INP au 75e percentile de toutes les interactions d'une visite.

Si le seuil "bon" est fixé a 200 ms, les recherches montrent que la réactivité est perçue comme instantanée sous 100 ms. Entre 100 et 300 ms, les interactions semblent lentes. Au-dessus de 300 ms, les utilisateurs perçoivent le site comme défaillant. Vise 100 ms, pas 200.

Le CLS (Cumulative Layout Shift) mesure la stabilité visuelle de la page. Seuils : bon sous 0,1, a améliorer entre 0,1 et 0,25, mauvais au-dessus de 0,25. Les causes principales : images et vidéos sans dimensions définies, publicités ou iframes chargées dynamiquement, polices web qui provoquent un flash de contenu invisible, éléments injectés au-dessus du contenu visible.

Les seuils se sont-ils durcis ?#

Les seuils numériques n'ont pas changé depuis leur introduction. Ce qui a changé, c'est le poids relatif des Core Web Vitals dans l'algorithme et la capacité de Google a les mesurer avec précision.

Le remplacement du FID par INP est en soi un durcissement. Le FID était une métrique bienveillante qui ne mesurait qu'un seul événement. INP est exhaustif, il évalue la réactivité sur l'ensemble de la session. Beaucoup de sites qui passaient le test FID échouent au test INP.

Selon les données du Web Almanac 2025 (HTTP Archive), 48 % des sites mobiles satisfont le seuil "bon" pour les trois Core Web Vitals combinés, contre 56 % sur desktop. Le goulot d'étranglement reste le LCP : seulement 62 % des pages mobiles le passent, contre 77 % pour l'INP et 81 % pour le CLS.

En clair : satisfaire les trois critères te place dans la meilleure moitié du web. La barre est basse.

Impact réel sur les classements#

Google a confirmé que les Core Web Vitals sont des signaux de classement, mais n'a jamais communiqué de poids chiffré. Les données de terrain indiquent que les CWV fonctionnent comme un facteur de départage : quand Google choisit entre des pages de pertinence et d'autorité similaires, l'expérience utilisateur fait la différence. Le contenu, la pertinence et les signaux E-E-A-T restent les facteurs dominants.

Selon une analyse d'ALM Corp sur 847 sites affectés par la mise a jour Core de décembre 2025 (données non confirmées par Google), les sites avec un LCP au-dessus de 3 secondes auraient subi 23 % de pertes de trafic en plus que les concurrents plus rapides. Les sites avec un INP au-dessus de 300 ms auraient enregistré des baisses de 31 %, en particulier sur mobile. Ce sont des corrélations observées par un tiers, pas des causalités établies. A prendre avec recul.

Un mauvais INP peut réduire tes chances d'apparaître en featured snippet. Google n'a pas confirmé de lien direct, mais la logique est cohérente : un featured snippet qui envoie vers une page lente serait une mauvaise expérience, et les données de terrain montrent que les pages en position zéro ont en moyenne de meilleurs CWV que les résultats suivants.

L'INP mobile est typiquement 2 a 3 fois pire que l'INP desktop. Si ton INP desktop est de 150 ms, ton INP mobile peut atteindre 400 ms. Comme Google utilise exclusivement la version mobile pour l'indexation, c'est l'INP mobile qui détermine ton score en classement. Optimiser uniquement pour le desktop est une erreur stratégique que je vois chez la moitié de mes clients.

Impact business mesuré#

redBus a optimisé son INP et observé une augmentation de 7 % de ses ventes. Le lien entre réactivité d'interface et conversion est direct.

SpeedCurve a mesuré que les taux de conversion sont environ 10 % plus élevés a 100 ms d'INP qu'a 250 ms sur mobile. La différence entre "instantané" et "perceptiblement lent" se traduit directement en chiffre d'affaires.

Un cabinet de services professionnels (rapporté par Magnet.co) a amélioré son INP sur une page de formulaire de contact et observé une hausse de 35 % des soumissions, une baisse du taux de rebond de 68 % a 41 % et une augmentation de 2 minutes de la durée moyenne de session. Source unique, a prendre avec prudence.

Les données Google (2020) montrent que les utilisateurs sont 24 % moins susceptibles d'abandonner une page en cours de chargement quand le site satisfait les trois Core Web Vitals.

Comment mesurer#

Les données de terrain (RUM) reflètent l'expérience réelle des utilisateurs. Google utilise le Chrome User Experience Report (CrUX) comme source pour le classement. Les outils : Google Search Console (rapport Signaux Web essentiels), PageSpeed Insights (onglet "Ce que vivent les utilisateurs"), Chrome UX Report Dashboard (BigQuery).

Les données de laboratoire simulent l'expérience dans un environnement contrôlé. Utiles pour le diagnostic mais pas représentatives de l'expérience réelle. Les outils : Lighthouse (Chrome DevTools), WebPageTest, crawlers comme Screaming Frog ou Sitebulb.

La différence entre les deux types de données est significative. Un site peut afficher un score Lighthouse parfait en labo et échouer sur les données de terrain a cause du trafic mobile sur des réseaux lents. C'est toujours la donnée de terrain qui compte pour le classement.

Optimisations prioritaires#

Pour le LCP : optimiser le TTFB serveur (cible sous 200 ms), précharger l'image hero avec rel="preload" et fetchpriority="high", servir les images en WebP ou AVIF avec les dimensions correctes, inliner le CSS critique et différer le reste, activer un CDN.

Pour l'INP : c'est la métrique la plus difficile parce qu'elle touche a l'architecture JavaScript. Code-splitting pour réduire le bundle initial, déport des traitements longs vers des Web Workers, optimisation des gestionnaires d'événements (debounce, throttle), suppression du JavaScript tiers non essentiel, utilisation de requestIdleCallback pour les tâches non urgentes.

Pour le CLS : c'est souvent la métrique la plus facile a corriger. Définir les dimensions width/height sur toutes les images et vidéos, réserver l'espace pour les publicités et widgets, précharger les polices avec font-display: swap, éviter l'injection dynamique de contenu au-dessus du fold.

Core Web Vitals et moteurs IA#

En 2026, les Core Web Vitals n'impactent pas directement la sélection par les moteurs IA. L'impact est indirect : les sites bien classés sur Google sont plus crawlés et cités par les moteurs IA. La relation causale "bonne perf, meilleur ranking Google, citation IA" est probable. Mais Perplexity ne sélectionne pas une source parce qu'elle a 2,3 secondes de LCP. Le mécanisme est bien plus indirect que ca.

Je sais pas a quel point ce facteur indirect pèse réellement. C'est spéculatif. Ce qui est sûr, c'est qu'un site techniquement excellent qui ranke bien sur Google a plus de chances d'être indexé par PerplexityBot et de figurer dans les résultats RAG de ChatGPT.

Verdict#

Avec seulement 48 % des sites mobiles qui satisfont les seuils, passer dans le vert sur les trois métriques est un avantage accessible. C'est l'une des rares optimisations SEO dont l'impact peut être mesuré a la fois en classement et en revenus. Commence par le LCP (le plus impactant), puis le CLS (le plus facile), puis l'INP (le plus complexe). Et mesure en données terrain, pas en labo.

Sources#

Lien copié dans le presse-papiers

À lire aussi