Plus généralement, je me demande s'il serait possible de saboter nos pages web (blog, site...) pour les crawlers d'IA qui n'en ont rien à foutre des robots.txt ? Vous auriez des idées ?