Checklist SEO/GEO complète pour un site Astro en 2026

Guide complet et actionnable pour implémenter toutes les optimisations SEO et GEO sur un site Astro. Chaque point est illustré avec du code concret issu de ce repo.

Par Astro Demo · SEOGEOAstroChecklist

Comment configurer les meta tags SEO avec Astro ?

La base du SEO technique commence par des meta tags correctement configurés. Dans Astro, le plus efficace est de créer un composant SEO.astro réutilisable qui centralise toute la logique :

<title>{fullTitle}</title>
<meta name="description" content={description} />
<link rel="canonical" href={canonicalURL} />
<meta property="og:title" content={fullTitle} />
<meta property="og:description" content={description} />
<meta property="og:image" content={ogImage} />

Points essentiels :

  • Le canonical doit être une URL absolue (avec le domaine)
  • L’og:image doit faire 1200×630px pour un affichage optimal
  • Ne pas inclure <meta name="generator"> en production (expose la version du framework)
  • Utiliser compressHTML: true dans astro.config.mjs pour minifier le HTML

Sur ce site, le composant SEO.astro gère dynamiquement tous ces tags selon le type de page (accueil, article, checklist).

Comment structurer le JSON-LD pour un maximum d’impact ?

Le JSON-LD est le format recommandé par Google pour les données structurées. Sur ce site, nous utilisons le pattern @graph qui permet d’inclure plusieurs entités liées dans un seul bloc :

Page d’accueilWebSite + Organization :

{
  "@context": "https://schema.org",
  "@graph": [
    { "@type": "WebSite", "name": "...", "publisher": { "@id": "#organization" } },
    { "@type": "Organization", "@id": "#organization", "name": "...", "logo": "..." }
  ]
}

ArticlesArticle + BreadcrumbList + FAQPage :

{
  "@context": "https://schema.org",
  "@graph": [
    { "@type": "Article", "headline": "...", "wordCount": 1200, "articleSection": "SEO" },
    { "@type": "BreadcrumbList", "itemListElement": [...] },
    { "@type": "FAQPage", "mainEntity": [...] }
  ]
}

Le wordCount et l’articleSection sont souvent oubliés mais aident les moteurs à catégoriser le contenu. La FAQ en schema augmente le CTR de 25% en moyenne dans les SERPs.

Qu’est-ce que le llms.txt et comment l’implémenter ?

Le llms.txt est un fichier placé à la racine du site (comme robots.txt) qui permet de communiquer avec les crawlers IA. La spec officielle (llmstxt.org) recommande cette structure :

# Nom du site

> Description courte du site

Description longue avec contexte.

## Section 1
- [Titre](URL): Description du contenu

## Section 2
- [Titre](URL): Description du contenu

En complément, llms-full.txt contient le contenu intégral du site en markdown pur — idéal pour les LLMs qui veulent indexer tout le contenu en une seule requête.

Sur ce site, llms-full.txt est généré automatiquement au build via un script prebuild qui concatène tous les articles markdown.

Comment optimiser le robots.txt pour le GEO ?

En 2026, le robots.txt a une double fonction : guider les moteurs classiques et les crawlers IA. Pour maximiser la visibilité GEO, il faut explicitement autoriser les bots IA :

User-agent: GPTBot
Allow: /

User-agent: ClaudeBot
Allow: /

User-agent: PerplexityBot
Allow: /

Attention : Cloudflare et d’autres CDN bloquent souvent ces bots par défaut. Vérifiez vos paramètres de WAF si vous utilisez un CDN.

Comment le TLDR améliore-t-il la visibilité GEO ?

Les moteurs génératifs extraient prioritairement les 200 premiers mots d’un contenu pour formuler leurs réponses. Le TLDR (Too Long; Didn’t Read) placé en tête d’article est la technique GEO la plus efficace : il fournit une réponse directe et concise que les LLMs peuvent citer immédiatement.

Sur ce site, le TLDR est défini dans le frontmatter de chaque article et affiché dans un encadré visuel distinctif. Il est aussi injecté dans le schema JSON-LD via la description de l’article.

Comment les FAQ structurées servent-elles le SEO et le GEO ?

Les FAQ servent un double objectif :

  1. SEO : Le schema FAQPage génère des rich snippets dans Google (questions dépliables sous le résultat). CTR moyen : +25%.
  2. GEO : Les paires question/réponse sont le format le plus facilement extractible par les LLMs. 45% des citations IA proviennent de contenus structurés en Q&A.

Sur ce site, les FAQ sont définies dans le frontmatter YAML, affichées en accordion HTML (<details>/<summary> — zéro JavaScript), et injectées automatiquement dans le schema JSON-LD.

Quelles optimisations de performance impactent le SEO ?

La performance est un facteur de classement direct. Voici les optimisations implémentées sur ce site :

OptimisationImpactImplémentation
HTML statique (SSG)LCP < 500msoutput: 'static' dans Astro
Zéro JS par défautINP = 0msArchitecture Islands
Compression gzip/brotli-70% tailleTraefik middleware
Cache immutable assets0 requêtes réseauCache-Control: public, immutable
HSTS + security headersTrust signalTraefik labels
HTML minifié-15% taille HTMLcompressHTML: true

Le résultat : un score Lighthouse 100/100 sur les 4 catégories (Performance, Accessibility, Best Practices, SEO) sans aucune optimisation manuelle au-delà de la configuration initiale.

Questions fréquentes

Combien de temps faut-il pour implémenter toute cette checklist ?+
En partant de ce template Astro, l'essentiel est déjà en place. Pour un nouveau projet, comptez 2-3 heures pour le setup initial (meta tags, schema, sitemap, robots.txt) et 1-2 heures pour les optimisations GEO (llms.txt, FAQ, TLDR).
Le GEO est-il vraiment nécessaire en 2026 ?+
Oui. 28% des recherches informationnelles passent par un moteur génératif. Ignorer le GEO, c'est se priver d'une audience croissante. Les optimisations GEO (structure, llms.txt, FAQ) améliorent aussi le SEO classique.
Faut-il utiliser Astro pour avoir un bon SEO ?+
Non, tout framework peut avoir un bon SEO. Mais Astro facilite le travail grâce à son approche HTML-first : zéro JavaScript par défaut, score Lighthouse 100/100 natif, et des intégrations officielles pour sitemap et RSS.
Comment valider son implémentation JSON-LD ?+
Utilisez le Google Rich Results Test (search.google.com/test/rich-results) et le Schema Markup Validator (validator.schema.org). Les deux sont gratuits et valident la syntaxe et la conformité de vos données structurées.
Le llms.txt est-il un standard officiel ?+
C'est un standard émergent proposé sur llmstxt.org, inspiré de robots.txt. Il n'est pas (encore) un standard W3C, mais il est déjà reconnu par plusieurs crawlers IA. Son adoption croît rapidement dans la communauté web.
Pourquoi autoriser les crawlers IA dans robots.txt ?+
Si votre objectif est la visibilité GEO, bloquer GPTBot, ClaudeBot ou PerplexityBot vous rend invisible aux moteurs génératifs. Beaucoup de sites les bloquent par défaut (via Cloudflare notamment), ce qui est contre-productif pour le GEO.