Par Yonel Sasson · Fondateur Getknown Publié le Mis à jour le Lecture : 15 min

SEO technique : le guide complet 2026 (audit, optimisation, checklist).

Le SEO technique, c'est la couche du référencement naturel que Google voit avant de regarder votre contenu. Crawl, indexation, performance, schéma, mobile, JavaScript, GEO. Si cette couche est cassée, le reste ne sert à rien. Ce guide en pose les douze piliers, la méthode d'audit en huit étapes, les outils que nous utilisons sur les programmes Getknown, et la dimension neuve : l'extractabilité par les LLMs.

Demander un audit technique

Qu'est-ce que le SEO technique ?

Définition courte d'abord, nuances ensuite. C'est la moitié invisible du référencement naturel, celle qui décide si Google et les IA peuvent lire ce que vous publiez.

SEO technique — Ensemble des optimisations qui permettent à un moteur de recherche d'explorer un site, de comprendre son contenu, et de l'indexer efficacement. Cela couvre la performance, la structure des URLs, la sécurité, les balises de balisage, le rendu JavaScript et, depuis 2024, l'extractabilité par les agents IA.

Le référencement naturel se découpe classiquement en trois piliers : technique, contenu, popularité. La couche technique est celle qu'on traite en premier, parce qu'aucun travail éditorial ne compense un site que Google ne peut pas crawler. La logique d'un bâtiment : on ne décore pas avant d'avoir coulé les fondations.

La distinction avec le SEO on-page reste utile. L'on-page concerne le HTML d'une page individuelle — title, balises Hn, contenu, ancres. Le technique concerne les conditions d'accès à l'échelle du site entier. Une title mal écrite est un problème on-page. Une chaîne de redirections qui bloque l'indexation est un problème technique.

La frontière s'est brouillée avec deux évolutions : la généralisation des données structurées Schema.org, à la fois techniques et sémantiques, et l'arrivée des moteurs IA (ChatGPT Search, Perplexity, Google AI Overviews) qui imposent une lecture passage par passage du contenu.

Pourquoi le SEO technique est critique en 2026.

Trois forces convergent : durcissement Core Web Vitals (INP depuis mars 2024), généralisation du rendu côté serveur attendu par les LLMs, et explosion du nombre de crawlers IA actifs.

Le sujet n'est pas nouveau. Ce qui change en 2026, c'est la tolérance des moteurs aux compromis. Google a remplacé FID par INP comme Core Web Vital en mars 2024 ; INP mesure la réactivité réelle d'une page, pas un délai initial unique. Le seuil est exigeant : 200 millisecondes maximum sur 75 % des visites mobiles, selon la documentation officielle web.dev [1].

Dans le même temps, le nombre d'agents IA qui crawlent le web a explosé. GPTBot, ClaudeBot, PerplexityBot, Google-Extended, Applebot-Extended, CCBot, Bytespider — chacun avec son user-agent, son rythme et ses règles. Une étude Cloudflare de fin 2024 montre que le trafic des crawlers IA a augmenté de plusieurs ordres de grandeur sur l'année écoulée [2]. Le robots.txt n'est plus un fichier qu'on écrit une fois et qu'on oublie.

200ms
Seuil INP "good" pour 75 % des sessions mobiles, depuis mars 2024.
2,5s
Seuil LCP "good" (Largest Contentful Paint) en mesure terrain CrUX.
7+bots
Crawlers IA actifs documentés à gérer dans robots.txt en 2026.

L'enjeu n'est plus seulement de plaire à Googlebot. Une page mal rendue côté serveur sera ignorée par les LLMs qui ne lisent pas le DOM hydraté. Un balisage Article incomplet n'apparaîtra ni dans les rich results Google ni dans les knowledge cards de Perplexity. Un sitemap obsolète prive le crawler IA d'un signal de fraîcheur qu'il utilise pour décider quelles pages re-lire.

L'autre raison pour laquelle ce chantier remonte en 2026 : le coût d'un site mal indexé devient mesurable côté business. La part du trafic organique qui vient désormais des résultats IA — qu'on l'appelle AI Overviews, ChatGPT Search ou Perplexity — n'est plus marginale dans les verticales informationnelles. Une page que ces moteurs ne peuvent ni crawler ni résumer n'a aucune chance d'être citée.

Les 12 piliers du SEO technique.

Découpage opérationnel — celui qu'on utilise sur les audits Getknown. Chaque pilier est mesurable, chacun a ses outils, chacun se traite séparément avant d'être recomposé.

01

Crawlabilité

Capacité de Googlebot et des bots IA à parcourir le site. Robots.txt, profondeur d'arborescence, liens internes, budget crawl. Une page non crawlée n'existe pas.

Crawl · Budget
02

Indexabilité

Décision du moteur d'inclure la page dans son index. Meta robots, canonical, noindex, redirections. Le piège classique : noindex accidentel hérité d'un staging.

Index · GSC
03

Architecture URL

Structure des URLs, profondeur des répertoires, slugs lisibles, paramètres canonisés. Une bonne arborescence se devine en lisant l'URL.

URL · Slugs
04

Core Web Vitals

LCP (chargement), CLS (stabilité), INP (réactivité). Mesures terrain CrUX, pas Lighthouse en labo. Seuils 2,5 s / 0,1 / 200 ms.

CWV · CrUX
05

Mobile-first

Le crawl Google se fait avec Googlebot Smartphone depuis 2023 pour toute nouvelle découverte. Le rendu mobile est la référence, pas le desktop.

Mobile · Viewport
06

HTTPS & sécurité

HTTPS obligatoire, certificat valide, HSTS, en-têtes de sécurité. Un site en HTTP en 2026 n'apparaît plus sérieusement dans les SERP.

HTTPS · HSTS
07

Schema.org

Données structurées JSON-LD pour Article, Product, FAQ, BreadcrumbList, LocalBusiness, Organization, Person. Carburant des rich results et des citations IA.

JSON-LD · Schema
08

Hreflang

Balisage des versions linguistiques et géographiques. Sur les sites multi-pays, le pilier qui décide quelle version s'affiche sur quel marché.

i18n · International
09

Robots.txt

Fichier qui autorise ou bloque les crawlers. En 2026, il gère aussi GPTBot, ClaudeBot, PerplexityBot, Google-Extended, Applebot-Extended.

Bots · Crawl
10

Sitemap XML

Liste des URLs canoniques à indexer, mise à jour à chaque publication. Signale au crawler ce qui mérite l'attention et la fraîcheur.

Sitemap · Index
11

JavaScript & rendu

SSR, SSG, hydratation. Googlebot rend la majorité du JS, les LLMs presque rien. Un site SPA non rendu côté serveur perd des citations IA.

SSR · Hydration
12

Extractabilité LLM

Pilier neuf en 2026. Llms.txt, paragraphes auto-portants, Q-A structuré, accessibilité aux bots IA. Décide si une marque est citée par ChatGPT ou ignorée.

GEO · LLM

L'audit technique SEO, en huit étapes.

La méthode que nous appliquons sur chaque diagnostic Getknown. Trois à six jours selon la taille du site. Sortie : un rapport priorisé, pas une liste de 200 lignes vert/jaune/rouge.

Crawl exhaustifScreaming Frog ou Sitebulb, user-agent Googlebot Smartphone

Le crawl est la photographie de départ. On le lance avec un user-agent mobile et le rendu JavaScript activé. On exporte les codes HTTP, les balises, les profondeurs, les liens internes, les images. C'est la base de tout l'audit.

  • Découverte de toutes les URLs accessibles, profondeur incluse
  • État des codes 200, 301, 302, 404, 5xx
  • Inventaire title, meta description, H1, canonical, robots
Couverture d'indexationGoogle Search Console · onglet Indexation

Le crawler peut tout voir, l'indexeur peut tout refuser. La GSC affiche les pages non indexées avec la raison : exclues par balise, anomalies de crawl, doublons sans canonique, soft 404. On extrait l'inventaire et on priorise.

  • Pages exclues malgré une intention d'indexation
  • Détection des soft 404 et doublons
  • Vérification du sitemap soumis vs URLs effectivement indexées
Mesure Core Web Vitals terrainCrUX via PageSpeed Insights API, pas Lighthouse

La donnée terrain est celle qui compte pour le classement, pas le score Lighthouse d'un test ponctuel. On extrait les métriques CrUX 28 jours sur les 30 pages les plus visitées et on cartographie LCP, CLS, INP par template.

  • Distribution mobile vs desktop sur 28 jours réels
  • Identification des templates qui dégradent la moyenne site
  • Croisement avec l'origine du problème (image, JS, CSS)
Audit Schema.orgRich Results Test + Schema Markup Validator

On teste chaque template clé : home, catégorie, produit, article, FAQ, contact. Le Rich Results Test confirme l'éligibilité aux rich snippets. Le Schema Markup Validator vérifie la conformité au standard. Les deux sont nécessaires.

  • Présence des schémas attendus par template
  • Cohérence schema HTML — pas de drift
  • Données structurées orphelines (oubliées d'un ancien template)
Robots.txt et bots IAAudit ligne par ligne, vérification GPTBot · ClaudeBot · PerplexityBot

Le robots.txt mérite un examen line by line. On vérifie qu'aucune section utile n'est en Disallow par héritage, et que les bots IA souhaités sont bien autorisés. C'est aussi l'endroit où l'on déclare l'URL du sitemap.

  • Détection des Disallow trop larges
  • Autorisations GPTBot / ClaudeBot / PerplexityBot / Google-Extended
  • Déclaration du sitemap XML
Architecture URL et maillageProfondeur, slugs, paramètres, liens internes

On regarde la profondeur des pages stratégiques (idéalement < 4 clics depuis la home), la propreté des slugs, la gestion des paramètres d'URL (sort, filter, page) avec canonical, et la distribution du link juice interne via le maillage.

  • Pages stratégiques à plus de 4 clics — alerte
  • Slugs avec stop-words, accents, ID numériques
  • Paramètres URL non canonisés (sources de duplicate)
Rendu JavaScriptView Source vs Inspect, mode Disable JS

On compare le HTML servi (View Source) au DOM hydraté (Inspect Element). Si le contenu utile n'apparaît que dans le DOM hydraté, on a un problème de rendu côté LLM, et parfois côté Google sur les sites JavaScript lourds. SSR ou SSG sont la solution propre.

  • Test du contenu sans exécution JavaScript
  • Détection des contenus injectés post-load
  • Vérification du rendu Google via l'inspecteur d'URL GSC
Priorisation et plan d'actionImpact estimé · effort · ROI sur 90 jours

La liste brute n'a aucune valeur si elle n'est pas priorisée. On classe chaque finding par impact estimé (trafic à risque ou à débloquer), effort dev/contenu, et délai de prise d'effet. Le livrable est une roadmap 90 jours, pas un tableau exhaustif.

  • Top 10 quick wins ROI court terme
  • Chantiers structurels avec dépendance dev
  • Indicateurs de suivi mensuels pré-définis
LCP
≤ 2,5 s
Largest Contentful Paint. Le plus gros élément visible doit s'afficher en moins de 2,5 secondes sur 75 % des visites mobiles.
CLS
≤ 0,1
Cumulative Layout Shift. La page ne doit pas "sauter" pendant le chargement. Score cumulé inférieur à 0,1.
INP
≤ 200 ms
Interaction to Next Paint. La page doit réagir à une interaction en moins de 200 millisecondes. Remplace FID depuis mars 2024.

Outils SEO technique, le top 10.

Ce qu'on utilise réellement chez Getknown sur les audits techniques. Pas une liste de notoriété, une stack opérationnelle.

Outil Usage principal Pricing Catégorie
Google Search Console Indexation, couverture, performance, Core Web Vitals terrain, sitemap. La donnée propriétaire de Google sur votre site. Gratuit Monitoring
Screaming Frog SEO Spider Crawl exhaustif, audit balises, codes HTTP, schema, redirections, hreflang. Le couteau suisse de l'audit. Free 500 URLs · £199/an illimité Crawl desktop
Sitebulb Crawl cloud avec hints priorisés. Plus visuel que Screaming Frog, complémentaire sur les audits stratégiques. À partir de 13 $/mois Crawl cloud
PageSpeed Insights Mesure Core Web Vitals labo (Lighthouse) + terrain (CrUX 28 jours). API disponible pour scaling. Gratuit Performance
Lighthouse CI Tests automatisés performance en pipeline CI/CD. Évite la régression Core Web Vitals à chaque déploiement. Open source CI Performance
Rich Results Test Validation Schema.org et éligibilité aux rich snippets Google. Premier réflexe après toute publication template-modifiant. Gratuit Schema
Schema Markup Validator Validation conformité Schema.org indépendante de Google. Complément du Rich Results Test pour audits robustes. Gratuit Schema
Semrush Site Audit Audit technique programmé, crawl récurrent, scoring par catégorie. Pratique pour monitoring continu côté agence. À partir de 139 $/mois Audit récurrent
Ahrefs Site Audit Crawl scriptable, alertes mail, hints priorisés. Bonne intégration avec le reste de la suite Ahrefs. À partir de 129 $/mois Audit récurrent
cURL + ligne de commande Vérification rapide des en-têtes HTTP, redirections, robots.txt, sitemap. Outil sous-estimé pour debug ciblé. Gratuit · natif Debug HTTP

Erreurs SEO technique les plus fréquentes.

Six erreurs qui reviennent quasi systématiquement sur les audits. Aucune n'est sophistiquée. Toutes sont évitables avec une revue mensuelle.

01

Noindex hérité du staging

La balise <meta name="robots" content="noindex"> oubliée sur la prod après bascule. Le site disparaît de l'index en deux à quatre semaines. Un cas par trimestre minimum sur les diagnostics.

02

Canonical cassée

URL canonique pointant vers une 404, vers un domaine de staging, ou en self-referencing absent. Le moteur ne sait plus quelle URL faire ranker. Cannibalisation et perte de positions garanties.

03

Sitemap obsolète

Sitemap XML généré à la main il y a 18 mois, jamais régénéré. Les nouvelles pages n'y sont pas, les anciennes 404 y sont encore. Le signal de fraîcheur que vous envoyez est faux.

04

Chaînes de redirections

URL A → B → C → D. Chaque saut coûte du budget crawl, dégrade le LCP et finit par être ignoré par Googlebot. La règle propre : une seule redirection 301, point final.

05

JavaScript bloquant

Contenu critique injecté côté client après hydratation. Googlebot parvient à le rendre la plupart du temps, les LLMs presque jamais. Conséquence : invisibilité dans ChatGPT Search et Perplexity.

06

Robots.txt trop restrictif

Un Disallow: / hérité d'une ancienne maintenance, ou un blocage involontaire de /assets/ qui empêche le rendu CSS. Le moteur voit alors le site comme cassé visuellement.

SEO technique et GEO : être citable par les LLMs.

Le SEO technique ne s'adresse plus seulement à Googlebot. ChatGPT Search, Perplexity, Claude, Gemini lisent le web avec leurs propres règles. Voici ce que cela change concrètement.

Le pilier neuf : extractabilité par les modèles de langage

La Generative Engine Optimization (GEO) partage avec le SEO technique 80 % de ses fondations. Performance, indexabilité, schema, propreté du HTML — tout cela compte pour les LLMs comme pour Google. Mais 20 % spécifiques séparent une page citée d'une page ignorée par ces moteurs.

La différence tient dans la manière dont les LLMs lisent une page. Ils ne traitent pas le document entier comme un objet à ranker. Ils découpent en passages auto-portants et notent chaque passage pour sa capacité à répondre à une question précise. Une page bien structurée pour Google peut être totalement illisible pour ChatGPT si chaque paragraphe a besoin du contexte du précédent pour faire sens.

  • Robots.txt qui autorise GPTBot, ClaudeBot, PerplexityBot, Google-Extended, Applebot-Extended.
  • Llms.txt à la racine du site (proposition Anthropic, adoption croissante) — liste curatée des URLs prioritaires.
  • Rendu côté serveur systématique : le contenu doit exister dans le HTML servi, pas dans le DOM hydraté JavaScript.
  • Paragraphes auto-portants de 40 à 60 mots qui répondent à une question identifiable sans contexte.
  • Schema Article + Person + Organization avec sameAs Wikidata pour ancrer l'identité de l'auteur et de la marque.
  • FAQPage et HowTo sur les pages procédurales — formats que les LLMs extraient en priorité.

L'approche que nous appliquons chez Getknown traite GEO et SEO technique comme un seul chantier intégré. Voir notre service GEO & IA pour la dimension stratégique, et l'audit SEO pour le diagnostic combiné.

SEO technique, en pratique.

Le SEO technique regroupe les optimisations qui permettent aux moteurs de recherche et aux LLMs d'explorer un site, de comprendre son contenu et de l'indexer correctement. Cela couvre la performance (Core Web Vitals), la crawlabilité (robots.txt, sitemap), l'indexabilité (canonical, meta robots), le balisage Schema.org, le mobile-first, le rendu JavaScript et désormais l'accessibilité aux bots IA. C'est la moitié invisible du référencement naturel, celle qui décide si le reste du travail SEO peut produire des résultats.
Un audit technique SEO se déroule en huit étapes : crawl exhaustif (Screaming Frog ou Sitebulb avec user-agent Googlebot mobile), examen de la couverture d'indexation dans Search Console, mesure terrain des Core Web Vitals via CrUX, audit Schema.org template par template, revue du robots.txt avec autorisation des bots IA, analyse de l'architecture URL et du maillage interne, test du rendu JavaScript, puis priorisation des findings par impact business et effort. Compter trois à six jours pour un site de taille moyenne.
Trois seuils, mesurés en terrain CrUX sur 75 % des visites mobiles. LCP (Largest Contentful Paint) sous 2,5 secondes pour le chargement du plus gros élément visible. CLS (Cumulative Layout Shift) sous 0,1 pour la stabilité visuelle. INP (Interaction to Next Paint) sous 200 millisecondes pour la réactivité aux interactions. INP a remplacé FID en mars 2024 et représente la mesure la plus exigeante. Source officielle : web.dev de Google.
Le SEO on-page concerne ce qui se trouve dans le HTML d'une page individuelle : title, meta description, balises Hn, contenu textuel, ancres internes, alt des images. Le SEO technique concerne les conditions d'accès, de rendu et d'interprétation à l'échelle du site entier : crawlabilité, indexabilité, performance, données structurées, redirections, rendu JavaScript. L'un travaille la page, l'autre travaille l'infrastructure du site. Les deux sont complémentaires et indissociables.
Oui, et de manière plus stricte que pour Google. Les LLMs ne rendent quasiment pas le JavaScript, donc le contenu doit exister en SSR. Ils découpent les pages en passages auto-portants, donc chaque paragraphe doit faire sens isolément. Ils s'appuient sur le balisage Schema.org pour identifier l'auteur et la marque. Ils respectent le robots.txt avec leurs user-agents propres : GPTBot, ClaudeBot, PerplexityBot. Un site qui ignore ces signaux techniques disparaît des citations IA, même si son contenu est excellent.
La stack opérationnelle minimum tient en cinq outils. Google Search Console pour la donnée propriétaire d'indexation et de performance. Screaming Frog ou Sitebulb pour le crawl exhaustif. PageSpeed Insights pour les Core Web Vitals labo et terrain. Le Rich Results Test pour valider Schema.org. cURL en ligne de commande pour vérifier en-têtes HTTP et redirections. Au-delà, Semrush ou Ahrefs apportent un monitoring récurrent utile en mode agence. Lighthouse CI évite la régression en pipeline de déploiement.
Sur un site de taille moyenne (200 à 2 000 URLs indexables, mono-langue), un audit technique senior se situe entre 3 500 et 8 000 euros HT. Le scope inclut les huit étapes décrites plus haut, livrable rapport priorisé, restitution oralement, et plan d'action 90 jours. Sur un site e-commerce avec catalogue large ou un programme multi-pays, le scope s'étend à 8 000 à 18 000 euros HT selon le nombre de templates et de domaines. Voir notre page Investissement pour les fourchettes complètes.
Un audit technique complet tous les 12 mois sur un site stable. Tous les 6 mois sur un site qui évolue fortement (e-commerce avec ajout fréquent de templates, programme multi-pays en expansion). Entre deux audits complets, une revue mensuelle des indicateurs Search Console (indexation, performance, Core Web Vitals) suffit à détecter les dérives. Un audit ad hoc est par ailleurs obligatoire avant et après chaque refonte, chaque migration de domaine et chaque changement majeur de CMS.

Trois principes non-négociables.

Sources et références citées

  1. Google web.dev, "Interaction to Next Paint (INP)", documentation officielle Core Web Vitals.
  2. Cloudflare, "Declaring your AIndependence: block AI bots, scrapers and crawlers with a single click", blog Cloudflare, juillet 2024.
  3. Google Search Central, "Bien débuter en référencement naturel (SEO)", documentation officielle Google Search.
  4. Schema.org, vocabulaire des données structurées, collaboration Google, Microsoft, Yahoo, Yandex.
  5. Google web.dev, "Largest Contentful Paint (LCP)", documentation Core Web Vitals.
  6. Google Search Central, "Vue d'ensemble des crawlers Google", incluant Google-Extended.
  7. OpenAI, "GPTBot documentation", conditions d'accès et user-agent officiel.

Un site qui ne ranke pas comme il devrait ? Parlons-en.

Un audit technique sérieux ne se vend pas sur la promesse. Il se prouve par la lecture commune des Search Console, du crawl et des Core Web Vitals. Trente minutes d'échange, on regarde ensemble si vos chantiers tiennent la route ou si un diagnostic plus approfondi a du sens. Pas de vente forcée. Factuel.

Réserver 30 minutes