Imaginons que je veuille économiser le plus de ressources possibles à mon serveur qui héberge une dizaine de sites et que je constate que près de 50% des requêtes sont le fait de bots. Je fais comment pour mitiger tout ça ? Vraiment pas envie de voir mes ressources mangées pour nourrir des outils de marketeux à la c** comme semrush et consorts. Il existe une liste de user-agent crawlers d'outils SEO dans le genre par exemple ? #sysadmin