Skip to content

Cas d'usage

Parcourir et capturer un site entier en un seul appel API

Lancez un crawl avec captures en un seul appel. Indiquez domaine et URL de départ — le robot découvre les pages, les capture et renvoie les images à la fin. Sans liste d’URL ni export sitemap.

1000
URL max par crawl
80+
Pays disponibles
Auto
Découverte des liens

Fonctionnement

Du domaine aux captures en quatre étapes

L’API découvre les pages en suivant les liens du domaine, puis capture chacune. Vous définissez l’URL de départ et les options une fois.

1

Domaine et URL de départ

Indiquez le domaine (ex. example.com) et l’URL où commence la découverte. Le robot suit les liens internes au domaine.

2

POST vers /crawl/create

Corps JSON avec url, domain et max_urls. Options : pays, taille, délai, navigateur, etc. Réponse immédiate avec identifiant de crawl.

3

Suivi du statut

Appelez /crawl/info avec l’ID : statut (processing, finished, cancelled, error), total_discovered, processed, failed.

4

Captures via /crawl/info

Quand le statut est « finished », la réponse inclut un tableau screenshots (URL, image, métadonnées).

Exemple API

Créer un crawl et attendre la fin

Envoyez du JSON à /crawl/create avec url, domain et max_urls. Interrogez /crawl/info jusqu’à status "finished".

# 1. Create the crawl
curl -X POST "https://api.screenshotcenter.com/api/v1/crawl/create?key=YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"url": "https://example.com", "domain": "example.com", "max_urls": 100}'
# => { "data": { "id": 12345, "status": "processing", ... } }

# 2. Poll for status and screenshots
curl "https://api.screenshotcenter.com/api/v1/crawl/info?key=YOUR_API_KEY&id=12345"
# => { "data": { "status": "finished", "processed": 98, "screenshots": [...] } }

Cas d'usage

À quoi sert le crawl

Remplace les audits manuels par un seul appel API. Pas d’export sitemap ni de liste d’URL — seulement domaine et point d’entrée.

🔄

QA migration

Crawlez la préprod avant mise en ligne et comparez à la production. Liens cassés, assets manquants, régressions visuelles sur toutes les pages découvertes.

  • Audit visuel pré-lancement
  • Staging vs production
  • Chaînes de redirection et liens internes
🔍

Audits SEO

Découvrez et capturez les pages indexables pour l’analyse SEO. Contenu pauvre, gabarits dupliqués, problèmes de rendu.

  • Crawl technique complet
  • Pages au rendu incohérent
  • Inventaire visuel crawlable
🖼️

Tests de régression visuelle

Crawls périodiques pour baseline et détection de changements. CSS, mise en page, contenu.

  • Diff visuel site entier
  • Régressions après déploiement
  • Cohérence des gabarits
📊

Veille concurrentielle

Structure, refontes et évolution du contenu. Archives visuelles pour intelligence marché.

  • Home et landings clés
  • Suivi dans le temps
  • Archive pour analyse
⚖️

Archivage conformité

Politiques, CGU, mentions légales sur tout le domaine. Archive horodatée sans capture manuelle page par page.

  • Politiques sur planning
  • Divulgations pour dossiers réglementaires
  • Preuves audit/contrat
📂

Inventaire de contenu

Vue de toutes les pages : orphelines, anciennes URL, contenu dynamique absent du sitemap.

  • Audit contenu avec preuve visuelle
  • Pages oubliées
  • Sitemap visuel pour gros sites

Paramètres crawl

Paramètres principaux

Obligatoires : url, domain, max_urls. Les options screenshot standard s’appliquent à chaque page.

ParamètreObligatoireDescription
urlobligatoireURL de départ complète (ex. https://example.com).
domainobligatoireDomaine exploré. Les liens externes ne sont pas suivis.
max_urlsobligatoireNombre max de pages à capturer. Entre 1 et 1000.
countryoptionnelCode pays ISO pour le navigateur. Défaut « us ».
sizeoptionnel« screen » ou « page » (page entière).
screen_widthoptionnelLargeur viewport en pixels. Défaut : 1024.
delayoptionnelSecondes après chargement avant capture.
browseroptionnel« chromium », « firefox » ou « webkit ».
hide_adsoptionnelMasquer pubs et bannières cookies.
formatoptionnel« png », « jpeg », « webp » ou « pdf ».

Lancez votre premier crawl

500 captures gratuites pour tester. Sans carte bancaire. Un domaine et c’est parti en quelques minutes.

Questions fréquentes

Qu'est-ce que le crawl de site ?

Une API qui découvre et capture les pages d’un domaine. À partir d’une URL et d’un domaine, le robot suit les liens internes jusqu’à la limite max_urls.

Comment fonctionne la découverte ?

Départ sur votre URL, suivi des liens (a, area) du même domaine, respect de robots.txt, pas de doublons, ordre largeur d’abord, file de captures.

Limite max_urls ?

Entre 1 et 1000 captures par crawl. Le robot peut découvrir plus d’URL ; il s’arrête à la limite. Pour les très gros sites, enchaînez plusieurs crawls ou changez l’URL de départ.

Puis-je annuler ?

Oui. POST /crawl/cancel avec l’ID. Fin de découverte et de traitement des jobs en attente. Les captures déjà faites restent accessibles via /crawl/info.

Captures conservées après annulation ?

Oui. Le tableau screenshots dans /crawl/info liste tout ce qui était terminé avant l’annulation.

Quels domaines ?

Tout domaine public, robots.txt respecté, liens limités au domaine indiqué. Les sous-domaines sont séparés : blog.example.com et www.example.com = crawls distincts.