Analyse SEO Technique : Crawlabilité, Core Web Vitals et Sécurité
Votre site peut perdre des positions a cause d'un header de securite manquant ou d'un LCP trop lent, sans que vous le sachiez. Cet audit interroge 3 APIs en parallele (Google PageSpeed Insights, Chrome UX Report, Mozilla Observatory) et analyse 8 categories critiques : crawlabilite, indexabilite, Core Web Vitals terrain et lab, securite, URLs, rendu JS et donnees structurees. Score de 0 a 100, problemes classes par priorite, recommandations concretes.
Ce que l'analyse couvre
- 1Crawlabilité : analyse du robots.txt, vérification du sitemap XML, détection des directives noindex, exploration de 8 sous-pages internes pour identifier liens brisés et erreurs 4xx/5xx.
- 2Indexabilité : validation des balises canonical, détection du contenu dupliqué, vérification des directives meta robots et de la cohérence entre sitemap et noindex.
- 3Core Web Vitals réels : données terrain CrUX au P75 sur 28 jours (LCP, INP, CLS, FCP, TTFB) + données lab Lighthouse (LCP, CLS, FCP, TBT, Speed Index). INP a remplacé FID le 12 mars 2024.
- 44 scores Lighthouse : Performance, SEO, Accessibilité et Bonnes Pratiques via l'API PageSpeed Insights, avec jusqu'à 8 opportunités d'optimisation détaillées (render-blocking, images, compression, DOM size...).
- 5Sécurité : vérification HTTPS, headers HTTP (HSTS, CSP, X-Frame-Options, X-Content-Type-Options, Referrer-Policy) + audit Mozilla Observatory avec note A-F, score /100 et 13 tests détaillés PASS/FAIL.
- 6Structure des URLs : détection des slugs propres, paramètres excessifs, chaînes de redirection et hiérarchie logique du site.
- 7Rendu JavaScript : identification des frameworks (React, Next.js, Vue, Angular, Svelte...) et signalement du contenu rendu côté client potentiellement invisible pour Google.
- 8Données structurées : détection de tous les blocs JSON-LD présents, validation des @type et signalement des types dépréciés (HowTo, SpecialAnnouncement...).
Analysez votre site maintenant
Résultat en moins de 60 secondes. Rapport détaillé avec recommandations actionables.
Commencer gratuitement →Questions fréquentes
Quelles données sont réelles et lesquelles sont simulées ?
L'analyse combine deux sources. Les données CrUX (Chrome UX Report) sont des mesures terrain réelles collectées auprès d'utilisateurs Chrome sur 28 jours. Les données Lighthouse sont simulées en laboratoire. Google utilise les données terrain pour le classement. Les deux sont utiles : le terrain pour l'état réel, le lab pour diagnostiquer les causes.
Qu'est-ce que l'INP et pourquoi remplace-t-il le FID ?
L'INP (Interaction to Next Paint) mesure la réactivité de votre page à toutes les interactions utilisateur, pas seulement la première. Il a remplacé le FID (First Input Delay) le 12 mars 2024 dans les Core Web Vitals. Seuil bon : moins de 200ms, mauvais : plus de 500ms.
Faut-il des compétences techniques pour lire le rapport ?
Non. Chaque problème est expliqué en français clair avec son impact sur le référencement et une recommandation d'implémentation concrète. Les problèmes sont classés par priorité : critique, haute, moyenne, basse.
Que mesure exactement l'audit Mozilla Observatory ?
Mozilla Observatory teste 13 headers de sécurité HTTP : HTTPS, HSTS, CSP, X-Frame-Options, X-Content-Type-Options, Referrer-Policy et d'autres. Il attribue une note de A+ à F. Ces headers protègent contre le clickjacking, le XSS et le sniffing MIME. Google ne les utilise pas directement pour le classement, mais HTTPS est un signal confirmé.
À quelle fréquence faire un audit technique ?
Une fois par mois pour les sites actifs, et après chaque déploiement majeur (refonte, migration, changement d'hébergeur). Les données CrUX se mettent à jour sur une fenêtre glissante de 28 jours : un problème corrigé prend environ 4 semaines pour se refléter dans les métriques terrain.