Is It Agent Ready – Vérifiez si votre site parle aux agents IA

Si vous avez un site, vous savez déjà qu’il faut l’optimiser et le rendre lisible pour Google. Mais en ce moment, Cloudflare pousse vraiment une toute autre couche par-dessus : le rendre lisible pour les agents IA. Et pour vérifier si vous êtes dans les clous, l’équipe a sorti
isitagentready.com
, un scanner gratuit qui vérifie ça en quelques secondes.
Vous tapez tout simplement votre URL, et le scanner check une dizaine de standards émergents, puis pour chaque truc qui manque, il vous crache carrément un prompt prêt à coller dans Claude Code, Cursor ou Windsurf pour qu’il vous aide à l’implémenter. Vous pouvez aussi customiser le scan en cochant uniquement ce qui vous intéresse, selon que votre site est plutôt un blog de contenu ou une API.

L’interface annoncée par Cloudflare pour son nouveau scanner agent-ready
Les checks sont organisés en 5 catégories : la découvrabilité (robots.txt, sitemap, Link headers HTTP), l’accessibilité du contenu (markdown negotiation, llms.txt), le contrôle et la signalisation des bots (Content Signals, Web Bot Auth, règles IA dans robots.txt), la découverte de protocoles (MCP Server Card, Agent Skills, API Catalog, OAuth) et le commerce agentique (x402, MPP, UCP, ACP). Chaque catégorie pèse alors dans le score final, sauf le commerce qui est juste checké mais pas scoré.
J’ai testé sur korben.info et le résultat est franchement mitigé. Côté positif : robots.txt présent avec Content Signals (search=yes, ai-train=no, donc je dis oui à l’indexation et non à l’entraînement IA), llms.txt opérationnel avec 111 lignes en français, markdown negotiation qui répond bien sur Accept: text/markdown, sitemap.xml en place, et GPTBot, Google-Extended et Meta bloqués explicitement.
Côté manquant : pas de MCP Server Card, pas d’Agent Skills, pas d’API Catalog, pas de Link headers.
Score estimé : très moyen, et c’est plutôt cohérent avec un site qui n’a pas besoin d’OAuth ni de serveur MCP.
Cloudflare balance surtout des chiffres bien concrets dans son
article de lancement
. Sur les 200 000 domaines les plus visités du web, 78% ont un robots.txt, 4% déclarent leurs préférences via Content Signals, 3.9% font de la markdown negotiation, et moins de 15 (oui, quinze) ont un MCP Server Card ou un API Catalog combinés. Autant dire qu’on est très tôt dans la partie. Côté boite à outils, dans le panel d’agents testé par Cloudflare, seuls Claude Code, OpenCode et Cursor envoient un Accept: text/markdown par défaut quand ils browsent le web. Les autres récupèrent du HTML par défaut, comme un navigateur classique.
Cloudflare a aussi mesuré l’impact sur sa propre doc en activant tous ces standards : 31% de tokens en moins consommés et 66% de réponses plus rapides. Du coup c’est pas négligeable, surtout quand vous payez les agents au token. Et bonus, isitagentready.com lui-même est agent-ready (forcément), avec son propre serveur MCP exposé à /.well-known/mcp.json et un outil scan_site disponible pour les agents qui veulent l’appeler en autonomie.
Mais attention au piège ! Si on traite tout pour viser le "tout vert" comme objectif, beaucoup de sites finiront par prétendre être des fournisseurs OAuth ou des serveurs MCP juste pour cocher la case. Donc mieux vaut dire honnêtement "non, ça je ne fais pas" que de faire semblant. Pour un blog perso, vous n’avez probablement pas besoin de l’API Catalog ni du serveur MCP. Pour un site e-commerce par contre, x402 et l’Agentic Commerce Protocol vont commencer à compter le jour où les agents paieront vraiment pour leurs utilisateurs.
Petit détail historique amusant, le robots.txt date de 1994 (j’avais 12 ans, j’étais à fond sur le PC mais pas encore sur le net) et le code
HTTP 402 Payment Required
existe depuis 1997 mais n’a jamais été massivement utilisé. Jusqu’au jour où Cloudflare et Coinbase se sont associés pour le ressusciter avec x402, en l’imaginant comme la couche de paiement entre humains, agents et services. On verra bien si leur mayonnaise va prendre…
Aujourd’hui l’adoption de tout cela est embryonnaire, mais rappelez vous qu’en 2004 peu de monde aurait parié sur l’industrie SEO qu’on connaît aujourd’hui. Donc ça vaut le coup d’y jeter un œil maintenant.
Merci à
Camille Roux
pour le lien !
Source : korben.info