
À propos
À propos de wstat
Site créé par Orlodrim (
).
Hébergeur : OVH, 2 rue Kellermann, 59100 Roubaix, France.

Le contenu de ce site est mis à disposition selon les termes de la Licence Creative Commons Attribution 3.0 non transposé (sauf mention contraire).
Ce site n'est pas affilié à Wikimedia Foundation.
Crédits graphiques :
Règles d'utilisation des robots / bot policy
Ce site possède un fichier robots.txt pour les robots d'indexation. Si votre robot n'est pas un robot d'indexation, vous pouvez ignorer les restrictions d'URL à condition de suivre les règles suivantes :
- Envoyez un en-tête HTTP User-Agent spécifique à votre bot.
- Attendez une seconde après avoir reçu la réponse pour une requête avant de faire la requête suivante. En particuler, ne faites pas plusieurs requêtes en parallèle.
- N'envoyez pas plus de 20 requêtes par minute.
- Ralentissez si vous recevez une erreur HTTP 429.
- N'essayez pas d'extraire une proportion significative du site. La plupart des données disponibles ici sont calculées à partir du dump public de Wikipédia en français. Si vous avez besoin de statistiques pour tous les modèles, merci de télécharger un dump et de les calculer directement. Le code pour extraire les modèles est disponible sur GitHub.
Pour rappel, ce site est un site personnel et il ne peut pas gérer un trafic de même ampleur que celui de Wikipédia. De plus, il peut être indisponible pendant de longues périodes, donc ne construisez pas de service critique dépendant de ce site.
Certaines pages sont disponibles dans un format lisible par une machine. Essayez d'ajouter "format=json" à l'URL.
There is a robots.txt file for crawlers. If your bot is not a crawler, you may bypass the URL restrictions provided that you comply with the following rules:
- Send a User-Agent HTTP header specific to your bot.
- Wait one second after receiving a response to do the next request. In particular, do not send multiple requests in parallel.
- Do not send more than 20 requests per minute.
- Slow down if you get a HTTP 429 error.
- Do not try to extract a significant proportion of the web site. Most of the data available here is computed from the public French Wikipedia dumps. If you need statistics about all the templates, please download a dump and compute them directly. The code to extract templates is published on GitHub.
Keep in mind that this is a personal web site and the amount of traffic it can handle is limited compared to Wikipedia. Additionally, it may be unavailable for extended periods of time, so please do not build any critical service from it.
Some pages are available in a machine-readable format. Try adding "format=json" to the URL.