Checklist SEO technique 2026 : les 50 points à vérifier

11 min de lecture
Lien copié dans le presse-papiers

Le SEO technique est la fondation sur laquelle tout le reste repose. Un contenu brillant sur un site que Google ne peut pas crawler correctement est un contenu invisible. En 2026, cette réalité s'étend aux moteurs IA : si Perplexity ou ChatGPT ne peuvent pas accéder à votre contenu, vous n'existez pas dans les réponses génératives non plus.

Cette checklist couvre les 50 points essentiels d'un audit SEO technique complet, organisés par priorité. Chaque section commence par les vérifications critiques — celles dont l'absence rend tout le reste inutile.

Pour un audit plus orienté contenu et on-page, consultez notre audit SEO en 50 points.

Crawlabilité et accès (points 1 à 10)

La crawlabilité est la base absolue. Si Google ne peut pas explorer votre site, rien d'autre ne compte. C'est toujours le premier domaine à vérifier quand un site ne performe pas.

1. Fichier robots.txt valide. Vérifiez que votre robots.txt n'interdit pas accidentellement des sections importantes (/blog/, /products/, /api/). Testez-le avec l'outil robots.txt de Google Search Console. En 2026, le fichier robots.txt sert aussi de document de gouvernance pour les crawlers IA — distinguez les bots d'entraînement (à bloquer si souhaité) des bots de recherche en temps réel (à autoriser).

2. Accès aux crawlers IA. Vérifiez que GPTBot, PerplexityBot, ClaudeBot et Google-Extended ne sont pas bloqués. Ces bots alimentent les réponses des moteurs IA qui deviennent des canaux de trafic à part entière.

3. Sitemap XML soumis et propre. Soumettez votre sitemap dans Google Search Console. Excluez les pages noindex, les redirections et les pages à faible valeur. Respectez les limites (50 000 URL maximum, 50 Mo par fichier). Utilisez des sitemaps multiples si nécessaire.

4. Architecture de site claire. Organisez votre site en hiérarchie logique. Chaque page importante doit être accessible en 3 à 4 clics depuis la page d'accueil. Les pages enfouies au-delà reçoivent moins d'attention des crawlers et moins de jus de lien.

5. Pas de pages orphelines. Identifiez les pages sans aucun lien interne pointant vers elles. Les moteurs de recherche n'ont aucun moyen fiable de les découvrir. Ajoutez des liens contextuels depuis des pages thématiquement proches.

6. URL propres et lisibles. /blog/seo-technique-guide est meilleur que /page?id=12847. Utilisez des tirets pour séparer les mots, restez sous 100 caractères, évitez les paramètres inutiles et les ID de session.

7. Certificat HTTPS valide. HTTPS est un signal de classement confirmé depuis 2014 et une exigence de base en 2026. Vérifiez l'absence de contenus mixtes (HTTP sur HTTPS) et la redirection automatique HTTP vers HTTPS. Pour un guide de migration, consultez notre article sur HTTPS et SEO.

8. Aucune chaîne de redirections. Les chaînes de redirections (A redirige vers B qui redirige vers C) diluent le jus de lien et ralentissent le crawl. Chaque redirection doit pointer directement vers la destination finale.

9. Codes de statut HTTP corrects. Les pages existantes doivent retourner 200. Les pages supprimées définitivement doivent retourner 410 (pas 404). Les redirections permanentes doivent utiliser 301 (pas 302). Consultez notre guide sur les redirections 301 et 302 pour les bonnes pratiques.

10. Budget de crawl optimisé. Pour les sites de plus de 10 000 pages, le budget de crawl devient critique. Bloquez les pages à faible valeur (filtres, paginations profondes, paramètres de tri) et concentrez le crawl sur les pages stratégiques.

Indexation et contenu dupliqué (points 11 à 20)

11. Couverture d'indexation saine. Dans Google Search Console, vérifiez le rapport de couverture. Le nombre de pages indexées doit correspondre à vos attentes. Des écarts importants signalent un problème.

12. Balises canonical correctes. Chaque page doit avoir une balise canonical pointant vers elle-même ou vers la version préférée en cas de contenu similaire. Les erreurs de canonical sont la première cause de problèmes d'indexation sur les sites e-commerce.

13. Pas de contenu dupliqué interne. Identifiez les pages qui partagent des blocs de contenu identiques (variantes produit, pages catégorie). Utilisez les canonicals pour indiquer la version à indexer.

14. Balises noindex correctement placées. Les pages de résultats de recherche interne, les pages de filtres, les pages de connexion et les pages légales standard doivent être en noindex. Vérifiez qu'aucune page stratégique n'est accidentellement bloquée.

15. Pagination correcte. Les pages paginées (page 2, page 3) doivent être indexables mais pointer vers la page 1 via canonical si le contenu est identique. Pour les listes longues, le scroll infini avec rendu SSR est préférable.

16. Pas de contenu mince. Les pages avec très peu de contenu unique (moins de 300 mots) sont candidates au thin content. Enrichissez-les ou consolidez-les avec des pages similaires.

17. Hreflang pour les sites multilingues. Si votre site existe en plusieurs langues, les balises hreflang évitent le contenu dupliqué cross-langue et orientent les utilisateurs vers la bonne version. Consultez notre guide sur le SEO international.

18. Pas de soft 404. Une soft 404 est une page qui affiche un message "page non trouvée" mais retourne un code 200. Google les détecte et les signale dans Search Console. Corrigez-les en retournant le vrai code 404 ou 410.

19. Gestion des paramètres d'URL. Les paramètres de tri, de filtre et de session créent des milliers d'URL dupliquées. Utilisez les balises canonical, le noindex ou les directives dans Search Console pour les gérer.

20. Fichiers meta robots cohérents. Vérifiez qu'il n'y a pas de contradiction entre le robots.txt, les balises meta robots et les en-têtes HTTP X-Robots-Tag. Une page autorisée dans robots.txt mais marquée noindex dans le HTML est un signal incohérent.

Performance et Core Web Vitals (points 21 à 30)

La performance est un signal de classement confirmé. Les sites rapides offrent une meilleure expérience utilisateur et bénéficient d'un avantage en classement. Pour un guide d'optimisation détaillé, consultez notre article sur les Core Web Vitals.

21. LCP sous 2,5 secondes. Le Largest Contentful Paint mesure le temps de chargement de l'élément le plus grand visible à l'écran. Optimisez les images hero (format WebP, dimensionnement correct, preload), le temps de réponse serveur et le rendu critique.

22. INP sous 200 millisecondes. L'Interaction to Next Paint mesure la réactivité à toutes les interactions utilisateur. C'est le successeur du FID depuis mars 2024. Minimisez le JavaScript bloquant, déférez les scripts non critiques et optimisez les gestionnaires d'événements.

23. CLS sous 0,1. Le Cumulative Layout Shift mesure la stabilité visuelle. Définissez les dimensions des images et vidéos, réservez l'espace pour les publicités et les éléments chargés dynamiquement, et évitez les injections de contenu au-dessus du pli.

24. TTFB sous 200 millisecondes. Le Time to First Byte mesure la réactivité du serveur. Utilisez un CDN, activez le cache serveur, optimisez les requêtes base de données et envisagez le edge computing pour les sites à fort trafic.

25. HTTP/2 ou HTTP/3 activé. Ces protocoles améliorent significativement les performances de chargement via le multiplexage des requêtes et la compression des headers.

26. Compression Brotli activée. Brotli offre une meilleure compression que Gzip pour les ressources web. Vérifiez que votre serveur ou CDN l'active par défaut.

27. Images optimisées. Format WebP ou AVIF, dimensionnement correct (pas d'images 4K affichées en 300px), lazy loading pour les images hors écran, attribut loading="lazy" et fetchpriority="high" pour l'image LCP.

28. JavaScript critique minimal. Identifiez et supprimez le JavaScript inutilisé. Déférez les scripts non critiques avec defer ou async. Le code tiers (analytics, chat widgets, pixels publicitaires) est souvent le premier coupable.

29. CSS critique en ligne. Le CSS nécessaire au rendu au-dessus du pli doit être injecté en inline dans le HTML. Le reste peut être chargé de manière asynchrone.

30. Preload des ressources critiques. Utilisez rel="preload" pour les polices, les images hero et les feuilles de style critiques. Utilisez rel="preconnect" pour les domaines tiers (CDN, analytics, polices Google).

Mobile et responsive (points 31 à 35)

Google utilise exclusivement la version mobile de votre site pour l'indexation et le classement depuis juillet 2024. Le mobile n'est pas une option — c'est la version principale.

31. Design responsive. Votre site doit s'adapter fluidement à toutes les tailles d'écran. Testez sur mobile, tablette et desktop. Les breakpoints doivent être cohérents et le contenu lisible sans zoom.

32. Viewport meta tag. La balise <meta name="viewport" content="width=device-width, initial-scale=1"> est obligatoire. Son absence empêche le rendu responsive.

33. Pas d'interstitiels intrusifs. Google pénalise les pop-ups qui masquent le contenu principal sur mobile. Les bannières de consentement RGPD sont exemptées, mais les pop-ups marketing plein écran sont sanctionnées.

34. Taille des cibles tactiles. Les boutons et liens doivent avoir une zone de tap d'au minimum 48x48 pixels avec un espacement suffisant entre eux. Les cibles trop petites ou trop proches dégradent l'expérience mobile.

35. Audit avec user-agent mobile. Crawlez votre site avec un user-agent Googlebot Smartphone, pas desktop. Beaucoup de développeurs auditent en desktop par habitude, ce qui masque les problèmes mobiles.

Données structurées (points 36 à 40)

Les données structurées sont le langage commun entre votre site et les moteurs — classiques et IA. Le balisage Schema.org aide les algorithmes à comprendre, catégoriser et extraire votre contenu.

36. Schema Article sur chaque page de contenu. Incluez auteur, datePublished, dateModified et wordCount. Ces métadonnées alimentent les algorithmes de fraîcheur et de crédibilité.

37. Schema Organization. Définissez votre entité avec nom, logo, URL, coordonnées et profils sociaux. Ce schema ancre votre identité dans le Knowledge Graph de Google.

38. Schema FAQPage pour les pages FAQ. Le balisage FAQ est le type le plus impactant pour la visibilité dans les réponses IA en 2026, même si Google a réduit les rich results FAQ dans ses SERP classiques.

39. Schema BreadcrumbList. Le fil d'Ariane balisé aide Google à comprendre la hiérarchie de votre site et améliore l'affichage dans les résultats de recherche.

40. Validation Schema sans erreur. Testez votre balisage avec le Rich Results Test de Google et Schema.org Validator. Corrigez toutes les erreurs et avertissements. Les propriétés requises manquantes invalident le schema entier.

41. Pas de malware ni de failles de sécurité. Vérifiez le rapport de sécurité dans Google Search Console. Une seule infection peut annuler des mois de travail SEO. Scannez régulièrement avec des outils comme Sucuri ou Wordfence.

42. En-têtes de sécurité HTTP. Implémentez Content-Security-Policy, X-Content-Type-Options, X-Frame-Options et Strict-Transport-Security. Ces en-têtes protègent contre les attaques XSS et le clickjacking.

43. Backlinks toxiques identifiés. Auditez votre profil de backlinks avec Ahrefs ou Semrush. Les liens provenant de réseaux de spam, de sites piratés ou de fermes de liens peuvent déclencher des pénalités manuelles. Utilisez l'outil de désaveu de Google si nécessaire.

44. Pages 404 avec backlinks. Identifiez les pages supprimées qui recevaient des backlinks. Redirigez-les vers la page la plus pertinente pour conserver le jus de lien. Consultez notre guide sur les erreurs 404 et le SEO.

45. Certificat SSL à jour. Un certificat expiré provoque des avertissements de sécurité dans le navigateur et fait fuir les utilisateurs. Activez le renouvellement automatique.

Préparation IA et futur (points 46 à 50)

46. Contenu structuré answer-first. Les moteurs IA extraient les passages qui répondent directement aux questions. Chaque section doit commencer par une réponse synthétique de 40 à 60 mots avant le développement.

47. Données vérifiables et sources citées. Les contenus avec citations et données sourcées affichent 30 à 40 % de visibilité en plus dans les réponses IA. Sourcez chaque statistique, chaque affirmation technique.

48. Rendu server-side complet. Les crawlers IA ne peuvent généralement pas exécuter le JavaScript côté client. Assurez-vous que tout le contenu critique est présent dans le HTML initial via SSR ou SSG.

49. Whitelisting des IP de bots IA. Si vous utilisez un WAF (Cloudflare, Akamai, Sucuri), vérifiez que les plages IP des crawlers IA sont autorisées. Perplexity publie ses plages IP sur des fichiers JSON dédiés.

50. Monitoring continu. Planifiez un audit complet au minimum trimestriel. Pour les sites avec des mises à jour fréquentes, un crawl mensuel est recommandé. Utilisez des alertes automatisées (Ahrefs, Semrush, Screaming Frog) pour détecter les régressions entre les audits.

Priorités de correction

Si votre audit révèle des dizaines de problèmes, traitez-les dans cet ordre :

  1. Indexation — les pages non indexées ne peuvent pas ranker
  2. Crawlabilité — les pages non crawlées ne seront jamais indexées
  3. Sécurité — une infection annule tout le reste
  4. Core Web Vitals — impact direct sur le classement et les conversions
  5. Données structurées — impact sur la visibilité SERP et IA
  6. Mobile — version principale pour l'indexation

Fréquence d'audit recommandée

Un audit SEO technique n'est pas un exercice ponctuel. En 2026, les algorithmes évoluent en continu, les crawlers IA se multiplient et les exigences techniques augmentent. Un site audité une fois par an accumule des régressions invisibles qui érodent progressivement sa performance.

Pour un suivi efficace, combinez un audit trimestriel complet avec un monitoring hebdomadaire automatisé et un re-crawl systématique après chaque migration, refonte ou mise à jour majeure du CMS.

Sources

Lien copié dans le presse-papiers

À lire aussi