Le système génère automatiquement un fichier robots.txt à la racine de votre domaine de tracking (ex : https://subdomain.yourdomain.com/robots.txt). Ce fichier est utilisé pour donner des instructions aux robots d'indexation des moteurs de recherche sur le contenu qu'ils sont autorisés à explorer.
2. Configuration via l'interface
Le comportement du fichier peut être modifié directement depuis la console d'administration dans la section "Search engine robots" (ou "Robots des moteurs de recherche").
Trois options sont disponibles dans le menu déroulant :
A. Accès limité / Limited access (recommandé)
Il s'agit de la configuration par défaut générée par le système. Elle permet l'accès aux ressources techniques nécessaires tout en protégeant le reste de l'arborescence.
Comportement : Autorise spécifiquement les fichiers .js et .html, mais interdit l'accès à tout le reste.