Tu publies du contenu depuis des mois, mais ton trafic organique stagne. Ou pire, il baisse. Le problème est rarement visible à l'œil nu — il se cache dans un fichier robots.txt mal configuré, des redirections en chaîne, ou des balises canonical qui pointent dans le vide. Un audit SEO complet permet de détecter ces freins invisibles et de prioriser les corrections qui auront un vrai impact sur ton classement.
Voici une checklist en 50 points, organisée en 7 catégories, que tu peux suivre avec des outils 100 % gratuits. Pas besoin d'abonnement Semrush ou Ahrefs — Google Search Console, Screaming Frog (version gratuite, 500 URLs) et PageSpeed Insights suffisent pour la majorité des sites.
Les outils gratuits indispensables
Avant de commencer, installe ou ouvre ces outils. Tu en auras besoin tout au long de l'audit.
| Outil | Usage | Limite gratuite |
| Google Search Console | Indexation, performances, erreurs | Illimité (ton site) |
| Google PageSpeed Insights | Core Web Vitals, performance | Illimité |
| Screaming Frog SEO Spider | Crawl technique complet | 500 URLs |
| Google Rich Results Test | Validation données structurées | Illimité |
| Ahrefs Webmaster Tools | Backlinks, santé technique | 1 site vérifié |
| Schema Markup Validator | Validation JSON-LD | Illimité |
Pour un audit complet, compte entre 2 et 4 heures selon la taille du site. L'investissement vaut le coup : selon une étude Backlinko (2024), les sites qui corrigent les erreurs techniques identifiées lors d'un audit voient en moyenne une amélioration de 16 % de leur trafic organique dans les 90 jours.
Partie 1 — Crawl et indexation (points 1-10)
C'est la fondation. Si Google ne peut pas explorer et indexer tes pages, le reste de l'audit ne sert à rien.
1. Vérifier le fichier robots.txt
Accède à tonsite.com/robots.txt et vérifie :
- Aucune page importante n'est bloquée par un
Disallow - Le fichier pointe vers ton sitemap :
Sitemap: https://tonsite.com/sitemap.xml - Pas de directive contradictoire entre plusieurs User-agent
Erreur fréquente : un Disallow: / hérité d'un environnement de staging qui bloque tout le site.
2. Analyser le sitemap XML
Ouvre tonsite.com/sitemap.xml et vérifie :
- Toutes les pages indexables sont présentes
- Aucune page en 404, 301 ou noindex n'apparaît dans le sitemap
- Les dates
<lastmod>sont cohérentes (pas toutes identiques) - Le sitemap est déclaré dans robots.txt et dans Google Search Console
3. Contrôler la couverture d'indexation dans Search Console
Dans Search Console, va dans Indexation > Pages. Analyse :
- Le ratio pages indexées / pages soumises (cible : plus de 90 %)
- Les pages exclues : pourquoi ? (
noindex,canonical, crawl anomaly`) - Les erreurs serveur (5xx) et erreurs de redirection
4. Vérifier les balises noindex involontaires
Lance un crawl Screaming Frog et filtre par Meta Robots: noindex. Chaque page en noindex doit l'être volontairement. Les pages de contenu, catégories et fiches produit ne devraient jamais avoir de noindex.
5. Tester le rendu JavaScript
Si ton site utilise un framework JS (React, Vue, Angular), teste le rendu dans Search Console via Inspection d'URL > Afficher la page testée. Compare le HTML rendu côté serveur et côté client. Si le contenu principal n'apparaît que côté client, Google risque de ne pas l'indexer correctement.
6. Identifier les pages orphelines
Une page orpheline n'a aucun lien interne qui pointe vers elle. Screaming Frog les détecte automatiquement en croisant le crawl avec les données de Search Console (import via API). Ces pages sont quasi invisibles pour Google.
7. Détecter les chaînes de redirections
Dans Screaming Frog, filtre les redirections et identifie les chaînes (A → B → C → D). Chaque maillon ajoute du temps de chargement et dilue le PageRank transmis. Règle : maximum 1 redirection, idéalement 0.
8. Vérifier le protocole HTTPS
Toutes les URLs de ton site doivent être servies en HTTPS. Vérifie :
- Pas de contenu mixte (ressources HTTP sur pages HTTPS)
- La redirection HTTP → HTTPS est en place (301, pas 302)
- Le certificat SSL est valide et non expiré
9. Contrôler les erreurs 404
Dans Search Console, les erreurs 404 apparaissent sous Pages non trouvées. Liste-les et priorise :
- Les pages qui recevaient du trafic ou des backlinks → redirection 301
- Les pages sans valeur → laisser en 404 ou retourner un 410 (supprimé définitivement)
10. Vérifier la profondeur de crawl
Aucune page importante ne devrait être à plus de 3 clics de la page d'accueil. Screaming Frog affiche la profondeur de crawl de chaque URL. Au-delà de 4 niveaux, les pages sont rarement explorées par Google.
Partie 2 — Architecture et structure (points 11-18)
L'architecture détermine comment Google comprend la hiérarchie de ton contenu.
11. Vérifier la structure des URLs
Tes URLs doivent être :
- Lisibles par un humain (
/guide-seo-debutant/plutôt que/p=1234) - En minuscules, avec des tirets (pas d'underscores)
- Courtes (moins de 75 caractères si possible)
- Sans paramètres inutiles
12. Auditer les balises canonical
Chaque page doit avoir une balise <link rel="canonical"> qui pointe vers elle-même (self-referencing) ou vers la version principale en cas de contenu dupliqué. Vérifie dans Screaming Frog qu'aucune canonical ne pointe vers une page en 404 ou en noindex.
13. Contrôler le maillage interne
Le maillage interne distribue le PageRank et guide Google dans la compréhension de ton site. Vérifie :
- Les pages stratégiques reçoivent le plus de liens internes
- Les ancres de liens sont descriptives (pas de "cliquez ici")
- Pas de pages importantes avec moins de 3 liens internes entrants
14. Vérifier les balises hreflang (si multilingue)
Si ton site est multilingue, chaque page doit avoir des balises hreflang correctes. Les erreurs courantes : codes langue/pays inversés, pages manquantes dans la boucle, absence de x-default.
15. Tester la pagination
Si tu utilises la pagination (/blog/page/2/, /blog/page/3/), vérifie que :
- Les pages paginées ne sont pas en noindex
- Le maillage permet d'atteindre toutes les pages de la série
- Le contenu paginé n'est pas dupliqué
16. Vérifier le fil d'Ariane (breadcrumb)
Les breadcrumbs aident Google à comprendre la hiérarchie. Idéalement, ils sont balisés en JSON-LD (BreadcrumbList). Teste avec le Rich Results Test de Google.
17. Auditer la structure Hn
Chaque page doit avoir :
- Un seul H1, contenant le mot-clé principal
- Des H2 pour les sections principales
- Des H3 pour les sous-sections
- Pas de saut de niveau (H1 → H3 sans H2)
Screaming Frog liste les H1 et H2 de chaque page en un clic.
18. Vérifier le menu de navigation
Le menu principal doit :
- Être crawlable (liens HTML, pas uniquement JavaScript)
- Contenir les catégories principales du site
- Ne pas dépasser 7-8 liens principaux (charge cognitive)
Partie 3 — Contenu et on-page (points 19-30)
Le contenu reste le facteur de classement numéro un. Cette section vérifie que chaque page est optimisée pour les moteurs et les humains.
19. Auditer les balises title
La balise title est le premier élément que Google affiche dans les résultats. Vérifie :
- Chaque page a un title unique
- Longueur entre 50 et 60 caractères
- Le mot-clé principal apparaît au début
- Le title donne envie de cliquer (pas juste un empilement de mots-clés)
20. Vérifier les meta descriptions
Même si Google les réécrit dans 70 % des cas (étude Ahrefs, 2023), une bonne meta description améliore le CTR quand elle est affichée :
- 150 à 160 caractères
- Contient le mot-clé principal naturellement
- Inclut un appel à l'action implicite
21. Détecter le contenu dupliqué interne
Screaming Frog signale les contenus similaires via la colonne "Near Duplicates". Les causes fréquentes : versions avec/sans www, avec/sans slash final, paramètres UTM indexés. Corrige avec des canonical ou des redirections 301.
22. Identifier le contenu thin (mince)
Les pages avec moins de 300 mots de contenu utile risquent d'être considérées comme "thin content" par Google. Exporte la liste depuis Screaming Frog et décide pour chaque page : enrichir, fusionner avec une autre page, ou supprimer et rediriger.
23. Vérifier les images : alt text et taille
Pour chaque image :
- Un attribut
altdescriptif est présent (accessibilité + SEO) - Le poids est optimisé (WebP ou AVIF, compression)
- Les dimensions
widthetheightsont spécifiées (évite le CLS)
24. Auditer le balisage des données structurées
Les données structurées schema.org en JSON-LD enrichissent l'affichage dans les résultats Google. Les types les plus utiles :
Articlepour les articles de blogFAQpour les sections questions/réponsesHowTopour les tutorielsBreadcrumbListpour le fil d'ArianeOrganizationpour la page d'accueil
Teste chaque type avec le Rich Results Test de Google.
25. Vérifier la fraîcheur du contenu
Google favorise le contenu à jour, surtout pour les requêtes à intention informationnelle. Identifie les articles qui n'ont pas été mis à jour depuis plus de 12 mois et qui ciblent des requêtes sensibles au temps (par exemple, "tendances SEO 2024" devrait devenir "tendances SEO 2026").
26. Analyser le keyword mapping
Chaque page cible-t-elle un mot-clé unique ? Le keyword mapping consiste à attribuer un mot-clé principal et 2-3 mots-clés secondaires par page. Si deux pages ciblent le même mot-clé, c'est de la cannibalisation — elles se font concurrence dans les résultats.
27. Vérifier la cannibalisation de mots-clés
Dans Search Console, cherche les requêtes pour lesquelles plusieurs pages de ton site apparaissent. Si deux URLs se disputent la même requête, fusionne-les ou différencie clairement l'angle de chacune.
28. Auditer les liens sortants
Les liens sortants vers des sources fiables renforcent la crédibilité de ton contenu (signal E-E-A-T). Vérifie :
- Pas de liens vers des sites spammés ou pénalisés
- Les liens externes pertinents s'ouvrent dans un nouvel onglet
- Pas de liens cassés (Screaming Frog les détecte)
29. Vérifier l'optimisation des featured snippets
Les featured snippets (position zéro) captent entre 35 et 50 % des clics selon une analyse de Sistrix (2024). Pour maximiser tes chances :
- Structure tes réponses en listes ordonnées ou tableaux
- Place la réponse directe dans les 40-60 premiers mots du paragraphe sous le H2
- Utilise des questions en H2 ("Comment…", "Qu'est-ce que…")
30. Contrôler l'E-E-A-T du contenu
Depuis les Quality Rater Guidelines de Google (mise à jour décembre 2024), l'Experience, Expertise, Authoritativeness et Trustworthiness sont des critères majeurs. Vérifie que chaque article affiche :
- L'auteur (nom + bio)
- La date de publication et de mise à jour
- Des sources citées et vérifiables
- Une expertise démontrée (exemples concrets, données)
Partie 4 — Performance technique (points 31-38)
La vitesse influence directement le classement. Depuis 2021, les Core Web Vitals sont un facteur de ranking officiel de Google.
31. Mesurer les Core Web Vitals
Utilise PageSpeed Insights sur 3 pages représentatives (accueil, catégorie, article). Pour un guide détaillé de chaque métrique, consulte notre article sur l'optimisation des Core Web Vitals. Les seuils à respecter selon Google (web.dev, 2026) :
| Métrique | Bon | À améliorer | Mauvais |
| LCP | Moins de 2,5 s | 2,5 s – 4 s | Plus de 4 s |
| CLS | Moins de 0,1 | 0,1 – 0,25 | Plus de 0,25 |
| INP | Moins de 200 ms | 200 ms – 500 ms | Plus de 500 ms |
INP a remplacé FID en mars 2024. Si ton site était optimisé pour FID mais pas pour INP, tu as peut-être perdu du terrain.
32. Optimiser le Largest Contentful Paint (LCP)
Les quick wins pour améliorer le LCP :
- Précharger l'image LCP avec
<link rel="preload"> - Servir les images en WebP ou AVIF
- Inliner le CSS critique
- Éliminer les scripts tiers bloquants
33. Réduire le Cumulative Layout Shift (CLS)
Le CLS mesure les décalages visuels pendant le chargement. Causes fréquentes :
- Images sans dimensions (
width/height) spécifiées - Publicités qui s'insèrent dynamiquement
- Polices web qui provoquent un flash (FOUT)
34. Améliorer l'Interaction to Next Paint (INP)
L'INP mesure la réactivité aux clics, taps et saisies clavier. Pour l'améliorer :
- Réduire le JavaScript exécuté sur le thread principal
- Différer les scripts non critiques avec
defer - Utiliser
requestIdleCallback()pour les tâches non urgentes
35. Tester la compatibilité mobile
Depuis l'indexation mobile-first de Google (active depuis 2023 pour tous les sites), la version mobile de ton site est celle qui compte. Vérifie :
- Le viewport est correctement configuré (
<meta name="viewport">) - Pas d'éléments qui débordent horizontalement
- Les boutons et liens sont assez espacés (minimum 48 px)
36. Vérifier la compression des ressources
Ton serveur doit servir les fichiers CSS, JS et HTML compressés en Brotli (ou Gzip en fallback). Vérifie les headers Content-Encoding dans les DevTools du navigateur (onglet Network). Brotli réduit la taille des fichiers de 15 à 20 % de plus que Gzip selon les mesures de Google (2025).
37. Auditer les ressources tierces
Chaque script tiers (analytics, chat, pixel publicitaire, widget social) ajoute du poids et du temps de chargement. Liste tous les scripts tiers et évalue :
- Est-il vraiment nécessaire ?
- Peut-il être chargé en
asyncoudefer? - Existe-t-il une alternative plus légère ?
38. Vérifier la mise en cache navigateur
Les ressources statiques (images, CSS, JS, polices) doivent avoir un Cache-Control avec un max-age d'au moins 1 an pour les fichiers versionnés. Vérifie les headers dans les DevTools. Un cache bien configuré élimine les requêtes réseau pour les visiteurs récurrents.
Partie 5 — Backlinks et autorité (points 39-43)
Les backlinks restent l'un des trois facteurs de classement les plus importants de Google. Cette section évalue la santé de ton profil de liens.
39. Analyser le profil de backlinks
Avec Ahrefs Webmaster Tools (gratuit pour ton propre site) ou Search Console (section Liens), analyse :
- Le nombre total de domaines référents
- La tendance : en croissance ou en déclin ?
- La distribution des ancres de liens : naturelle ou sur-optimisée ?
40. Identifier les backlinks toxiques
Un backlink provenant d'un site spammé, d'un réseau de liens ou d'un site piraté peut nuire à ton classement. Repère les signaux d'alerte :
- Domaines en langue étrangère sans rapport avec ton contenu
- Sites avec un Domain Rating très bas et beaucoup de liens sortants
- Ancres exactes sur-optimisées en masse
41. Détecter les backlinks perdus
Dans Ahrefs Webmaster Tools, filtre les backlinks perdus sur les 30 derniers jours. Si un backlink de qualité a été supprimé à cause d'une page supprimée de ton côté (404), redirige-la vers la page la plus pertinente.
42. Comparer avec les concurrents
Identifie tes 3-5 concurrents principaux sur ta requête cible et compare :
- Le nombre de domaines référents
- L'autorité de domaine (DR/DA)
- Les types de backlinks (guest posts, mentions média, annuaires)
L'écart te donne une idée de l'effort nécessaire en link building.
43. Vérifier les mentions non liées
Une mention de ta marque ou de ton site sans lien hypertexte est une opportunité facile. Recherche ta marque sur Google (entre guillemets, en excluant ton propre site) et contacte les webmasters pour transformer ces mentions en backlinks.
Partie 6 — Expérience utilisateur (points 44-47)
Google utilise des signaux comportementaux (taux de rebond, temps passé, pogo sticking) pour évaluer la satisfaction des utilisateurs.
44. Analyser le taux de rebond par page
Dans Google Analytics 4, le taux de rebond correspond aux sessions sans engagement (moins de 10 secondes, pas de conversion, pas de seconde page vue). Un taux supérieur à 70 % sur une page de contenu est un signal d'alerte.
45. Vérifier la lisibilité du contenu
La lisibilité n'est pas un facteur de ranking direct, mais elle influence le temps passé et le taux de rebond. Vérifie :
- Paragraphes courts (3-4 lignes maximum)
- Sous-titres toutes les 200-300 mots
- Listes à puces pour les énumérations
- Contraste texte/fond suffisant (WCAG AA)
46. Tester les call-to-action (CTA)
Chaque page doit avoir un objectif clair. Vérifie que les CTA sont :
- Visibles sans scroller (au-dessus de la ligne de flottaison)
- Formulés en action ("Télécharge la checklist", pas "En savoir plus")
- Cohérents avec l'intention de la page
47. Auditer l'accessibilité (RGAA/WCAG)
L'accessibilité est un critère indirect de qualité pour Google. Les points essentiels :
- Alt text sur toutes les images
- Navigation possible au clavier
- Contraste suffisant (ratio 4,5:1 pour le texte normal)
- Formulaires avec labels associés
Partie 7 — IA et GEO (points 48-50)
En 2026, l'optimisation pour les moteurs IA (GEO — Generative Engine Optimization) est devenue incontournable. Les AI Overviews de Google apparaissent sur environ 30 % des requêtes informationnelles selon les données de BrightEdge (janvier 2026).
48. Vérifier la citabilité du contenu
Les moteurs IA (Google AI Overviews, ChatGPT, Perplexity) citent les contenus qui sont :
- Factuels et sourcés (avec des données précises)
- Structurés en réponses directes (question H2 → réponse en 1-2 phrases → développement)
- Balisés en schema.org (FAQ, HowTo, Article)
49. Tester la visibilité dans les AI Overviews
Cherche tes requêtes cibles sur Google et observe si un AI Overview apparaît. Si oui :
- Ton site est-il cité dans les sources ?
- Le format de ton contenu correspond-il à ce que l'AI Overview affiche ?
- Adapte la structure pour maximiser les chances d'être sélectionné comme source
50. Optimiser pour l'E-E-A-T dans le contexte IA
Les moteurs IA privilégient les contenus qui démontrent une expertise réelle. En 2026, ça veut dire :
- Des auteurs identifiables avec une expertise vérifiable
- Des données originales ou des analyses uniques
- Un historique de contenu cohérent sur le sujet (autorité thématique)
- Des mises à jour régulières qui prouvent que le contenu est maintenu
Comment prioriser les corrections
Tu as maintenant 50 points à vérifier. Mais par où commencer ? Voici une matrice de priorisation :
| Priorité | Catégorie | Impact | Effort |
| Critique | Crawl bloqué, noindex involontaire, erreurs 5xx | Très élevé | Faible |
| Haute | Core Web Vitals, contenu thin, canonical cassés | Élevé | Moyen |
| Moyenne | Balises title/description, maillage interne, schema | Moyen | Moyen |
| Basse | Optimisations UX, liens sortants, accessibilité | Modéré | Variable |
La règle : corrige d'abord ce qui empêche Google de crawler et d'indexer ton site. Ensuite, optimise le contenu. En dernier, peaufine l'UX et les détails.
À quelle fréquence faire un audit SEO ?
Un audit complet tous les 6 mois est un bon rythme pour la plupart des sites. Entre deux audits, surveille chaque mois dans Search Console :
- Les erreurs d'indexation nouvelles
- Les baisses de clics ou d'impressions sur des pages clés
- Les nouvelles pages exclues de l'index
Les algorithmes de Google évoluent en permanence — Google a déployé 4 682 mises à jour en 2023 selon son rapport annuel Search. Un audit régulier te permet de détecter les problèmes avant qu'ils n'impactent sérieusement ton trafic. Les sites spécialisés comme les blogs environnementaux doivent surveiller en particulier leur conformité aux nouvelles réglementations ICPE qui peuvent affecter le contenu et le positionnement des pages.
FAQ
Un audit SEO gratuit suffit-il pour un site professionnel ?
Pour la majorité des sites de moins de 10 000 pages, les outils gratuits couvrent 80 % des besoins. Google Search Console et Screaming Frog (version gratuite, 500 URLs) détectent la plupart des problèmes techniques. Les outils payants apportent un plus pour l'analyse concurrentielle et le suivi de positionnement, mais ne sont pas indispensables pour un diagnostic initial.
Combien de temps faut-il pour voir les résultats après un audit ?
Selon la gravité des problèmes corrigés, les premiers effets apparaissent entre 2 semaines et 3 mois. Les corrections techniques (crawl, indexation) sont prises en compte rapidement par Google. Les améliorations de contenu mettent plus de temps — Google doit recrawler, réévaluer et repositionner la page.
Faut-il refaire un audit après une refonte de site ?
C'est même obligatoire. Une refonte est le moment où le plus d'erreurs SEO apparaissent : redirections manquantes, URLs modifiées sans redirection, balises méta oubliées, maillage interne cassé. Lance un audit complet dans la semaine qui suit la mise en production.
Peut-on automatiser un audit SEO ?
Partiellement. Les outils comme Screaming Frog, Sitebulb ou Lumar automatisent le crawl et la détection d'erreurs techniques. Mais l'analyse du contenu, la stratégie de mots-clés et l'évaluation de l'E-E-A-T nécessitent un jugement humain. L'automatisation détecte les symptômes, un expert identifie les causes.
Quelle est la différence entre un audit technique et un audit SEO complet ?
L'audit technique se concentre sur l'infrastructure : crawl, indexation, performance, architecture. L'audit SEO complet inclut aussi le contenu (qualité, mots-clés, cannibalisation), les backlinks (profil, toxicité) et l'expérience utilisateur. Les 50 points de cette checklist couvrent l'ensemble.
Sources
- Backlinko — The 18-Step SEO Audit Checklist for 2026
- Tom's Hardware — Technical SEO Audit Checklist 2026
- Google — About PageSpeed Insights
- Screaming Frog — SEO Spider
- Webfx — How to Do a Technical SEO Audit (7-Step Guide, 2026)
- Google — Core Web Vitals documentation (web.dev)
- Oui Digital — SEO Audit Guide 2026




