Table des matières:
Pourquoi le fichier robots.txt est crucial pour votre site WordPress ?
Le fichier robots.txt est un fichier texte placé à la racine de votre site. Il indique aux robots des moteurs de recherche quelles pages explorer et lesquelles ignorer. Bien configuré, il peut améliorer l’indexation de votre contenu important et économiser votre budget de crawl. Mal configuré, il peut bloquer l’accès à des pages essentielles et nuire à votre référencement.
Dans cet article, nous allons voir comment optimiser le fichier robots.txt pour WordPress, étape par étape.
Qu’est-ce que le fichier robots.txt et comment fonctionne-t-il ?
Le fichier robots.txt suit le standard d’exclusion des robots (REP). Il contient des instructions comme User-agent (le robot ciblé) et Disallow (les chemins à ne pas explorer) ou Allow (pour autoriser malgré une règle parent).
Exemple simple :
User-agent: * Disallow: /wp-admin/ Allow: /wp-admin/admin-ajax.php
Ce code bloque l’accès à tout le dossier wp-admin sauf le fichier admin-ajax.php. Important : les robots peuvent ignorer robots.txt, mais les moteurs de recherche respectent généralement ces directives.
Emplacement par défaut du fichier robots.txt dans WordPress
WordPress ne crée pas automatiquement de fichier robots.txt physique. Il utilise un fichier virtuel généré dynamiquement à l’URL votresite.com/robots.txt. Par défaut, le contenu est :
User-agent: * Disallow: /wp-admin/ Allow: /wp-admin/admin-ajax.php
Ce fichier virtuel peut être modifié via le hook robots_txt dans le fichier functions.php de votre thème, ou en créant un fichier physique à la racine.
Comment optimiser robots.txt pour WordPress ?
1. Créer un fichier physique ou utiliser un plugin ?
Deux options s’offrent à vous :
- Créer un fichier physique via FTP ou cPanel : placez le fichier robots.txt à la racine de votre site. Avantage : contrôle total.
- Utiliser un plugin SEO comme Yoast SEO ou Rank Math : ils offrent une interface pour éditer robots.txt sans toucher au code. Recommandé pour les débutants.
2. Bloquer les dossiers et fichiers inutiles
Pour économiser le budget de crawl, bloquez l’accès aux ressources non essentielles :
- /wp-admin/ : zone d’administration, à bloquer sauf exceptions.
- /wp-includes/ : fichiers système.
- /wp-content/plugins/ : dossiers de plugins, sauf si vos plugins nécessitent des fichiers accessibles.
- /wp-content/themes/ : fichiers de thème.
- /wp-content/uploads/ : à laisser accessible si vos images doivent être indexées, mais vous pouvez bloquer certains sous-dossiers.
- /cgi-bin/ : scripts.
Exemple :
User-agent: * Disallow: /wp-admin/ Disallow: /wp-includes/ Disallow: /wp-content/plugins/ Disallow: /wp-content/themes/ Allow: /wp-admin/admin-ajax.php
3. Gérer les fichiers et pages en double
WordPress génère des URL en double comme les flux RSS, les pages de pagination, les résultats de recherche. Bloquez-les :
- /feed/ : flux RSS.
- /trackback/ : trackbacks.
- /*?s= : pages de recherche interne.
- /*?attachment_id= : pages de pièces jointes.
Exemple :
Disallow: /feed/ Disallow: /trackback/ Disallow: /*?s= Disallow: /*?attachment_id=
4. Autoriser l’accès aux ressources essentielles
Certains fichiers doivent rester accessibles :
- /wp-content/uploads/ : pour l’indexation des images.
- /wp-admin/admin-ajax.php : nécessaire pour certaines fonctionnalités.
- Fichiers CSS et JS : si vous voulez que Google les analyse pour le rendu.
Astuce : utilisez Allow pour autoriser des chemins spécifiques dans un dossier bloqué.
5. Utiliser la directive Sitemap
Indiquez l’emplacement de votre sitemap XML dans robots.txt pour faciliter la découverte par les moteurs :
Sitemap: https://www.votresite.com/sitemap_index.xml
Cette directive fonctionne même si vous avez bloqué certains dossiers.
6. Tester votre fichier robots.txt
Après modifications, testez-le avec l’outil de test robots.txt dans Google Search Console. Vérifiez que les pages importantes ne sont pas bloquées par erreur.
Erreurs courantes à éviter
- Bloquer les fichiers CSS et JS : Google a besoin de ces fichiers pour comprendre la mise en page et le contenu. Ne les bloquez pas.
- Utiliser Disallow: / : cela bloque tout le site. À n’utiliser que temporairement.
- Oublier de mettre à jour après une modification : si vous changez de structure, adaptez robots.txt.
- Ignorer les directives de crawl : Google peut interpréter différemment, testez toujours.
Checklist pour une optimisation réussie
| Étape | Action |
|---|---|
| 1 | Créez ou éditez votre fichier robots.txt (physique ou via plugin). |
| 2 | Bloquez les dossiers sensibles : /wp-admin/, /wp-includes/, /wp-content/plugins/, /wp-content/themes/. |
| 3 | Bloquez les pages en double : /feed/, /trackback/, pages de recherche, pièces jointes. |
| 4 | Autorisez les ressources essentielles : /wp-content/uploads/, admin-ajax.php, CSS/JS si nécessaire. |
| 5 | Ajoutez la directive Sitemap avec l’URL de votre sitemap. |
| 6 | Testez avec Google Search Console et corrigez les erreurs. |
Exemple complet d’un fichier robots.txt optimisé pour WordPress
User-agent: * Disallow: /wp-admin/ Disallow: /wp-includes/ Disallow: /wp-content/plugins/ Disallow: /wp-content/themes/ Disallow: /feed/ Disallow: /trackback/ Disallow: /*?s= Disallow: /*?attachment_id= Allow: /wp-admin/admin-ajax.php Allow: /wp-content/uploads/ Sitemap: https://www.votresite.com/sitemap_index.xml
Cet exemple bloque les zones sensibles tout en autorisant les ressources utiles. Adaptez-le à votre site.
FAQ : Questions fréquentes sur robots.txt pour WordPress
Dois-je créer un fichier robots.txt physique ou utiliser un plugin ?
Pour la plupart des utilisateurs, un plugin SEO comme Yoast ou Rank Math est suffisant. Les développeurs peuvent préférer un fichier physique pour plus de contrôle.
Puis-je bloquer tout le site avec robots.txt ?
Oui, avec Disallow: /, mais cela empêchera l’indexation de toutes vos pages. Utilisez-le uniquement temporairement (ex : site en construction).
Google respecte-t-il toujours robots.txt ?
Google respecte les directives, mais il peut ignorer robots.txt pour certaines pages (ex : si la page est déjà indexée). De plus, les robots malveillants peuvent l’ignorer.
Comment vérifier si mon robots.txt est correct ?
Utilisez l’outil de test robots.txt dans Google Search Console. Il simule le crawl et signale les erreurs.
Faut-il inclure le sitemap dans robots.txt ?
Oui, c’est une bonne pratique pour aider les moteurs de recherche à découvrir votre sitemap, même si vous bloquez certains dossiers.
Que faire si je modifie robots.txt et que le site ne s’affiche plus ?
Vérifiez que vous n’avez pas bloqué des fichiers CSS/JS essentiels. Utilisez l’outil de test pour détecter les problèmes.
Recommandations pour aller plus loin
Optimiser robots.txt n’est qu’une partie du SEO technique. Pensez aussi à :
- Créer et soumettre un sitemap XML.
- Utiliser les balises meta robots sur les pages importantes.
- Surveiller les erreurs de crawl dans Google Search Console.
- Mettre en place des redirections 301 pour les pages supprimées.
En suivant ce guide, vous optimiserez efficacement votre fichier robots.txt pour WordPress et améliorerez l’indexation de votre site. N’oubliez pas de tester chaque modification.
Photo by Pavel Danilyuk on Pexels

J’ai bloqué /wp-content/uploads/ mais mes images n’apparaissent plus dans Google Images. Est-ce normal ?
Oui, en bloquant /uploads/ vous empêchez l’indexation des images. Si vous voulez qu’elles soient indexées, laissez ce dossier accessible ou utilisez des règles plus fines.
Merci pour ce guide ! J’ai toujours eu peur de toucher au fichier robots.txt, mais maintenant je comprends mieux comment l’optimiser.
Content que cela vous aide ! N’hésitez pas à commencer par un plugin SEO comme Yoast pour éviter les erreurs.
Attention : si vous utilisez un CDN, pensez à autoriser les robots à crawler vos ressources statiques via le CDN.
Très bon conseil ! Il faut effectivement vérifier que vos assets sur CDN ne sont pas bloqués par erreur dans robots.txt.
Super article ! J’ai ajouté les règles pour les flux RSS et les pages de recherche, ça a réduit le nombre de pages crawlées.
Merci ! C’est exactement le but : économiser le budget de crawl pour que Google se concentre sur votre contenu important.
Est-ce que je dois absolument créer un fichier physique ou le fichier virtuel de WordPress suffit ?
Le fichier virtuel par défaut suffit pour la plupart des sites. Si vous avez besoin de règles avancées, un fichier physique ou un plugin est recommandé.
Dans l’exemple, vous bloquez /wp-content/plugins/ mais certains plugins ont des fichiers CSS/JS nécessaires au rendu. Que faire ?
Bonne remarque. Il vaut mieux ne pas bloquer /plugins/ si vous n’êtes pas sûr. Vous pouvez plutôt bloquer des dossiers spécifiques comme /plugins/nom-du-plugin/includes/.