Claude Code et Apify : mon setup pour scraper sans coder

Agents IA13 min de lecture·
Par David Meckler
·
Setup Claude Code branché sur Apify : terminal lançant un actor de scraping SERP, illustration agents IA pour solo SEO

Claude Code branché sur Apify, c’est l’agent terminal d’Anthropic qui pilote 15 000 actors de scraping en langage naturel. Pas de Playwright à coder, pas de pipeline Selenium à maintenir. Tu dis « scrape les 10 premiers résultats Google sur ce keyword et sors-moi les meta-titles », l’agent lance le bon actor, te ramène la donnée propre, l’écrit dans ton vault.

Voici le setup Claude Code Apify que j’utilise pour seo-rank-analyzer.fr : 5 cas d’usage SEO chiffrés (audit SERP concurrents, scraping de backlinks, monitoring de prix, lead generation, veille de contenu), comparatif honnête Apify MCP vs Firecrawl vs Bright Data, tarification réelle pour un freelance, et un fichier CLAUDE.md paramétré à copier-coller.

Points clés

  • Le combo Claude Code + Apify donne accès à 15 000 actors de scraping prêts à l’emploi via le serveur MCP officiel.
  • Setup complet en 5 minutes : compte Apify gratuit (5 USD de crédit offerts), token API, ajout du serveur MCP dans la config Claude Code.
  • Coût réel pour un freelance qui audite 12 clients par mois : 15 à 40 € / mois en compute units Apify, à comparer aux 130 € d’un Semrush Pro.
  • Cas d’usage le plus rentable : l’audit SERP des 10 premiers concurrents passe de 8 heures à 12 minutes par client.
  • Limite à connaître : scraping LinkedIn, scraping de leads RGPD-sensibles et sites avec captcha custom restent hors périmètre.

Pourquoi associer Claude Code et Apify

Tu as déjà essayé d’écrire un script Playwright qui survit trois mois. Le sélecteur .title du concurrent change, ton script casse. Le DOM passe en SPA React, ton parser ne voit plus rien. Cloudflare ajoute une vérification, ton scraper se mange un 403. Tu patches, tu redéploies, tu patches. Au bout de six mois, tu maintiens 1 200 lignes de scrapers fragiles que tu n’oses plus toucher.

Apify est une plateforme qui résout ce problème en industrialisant le scraping. Au lieu d’écrire ton scraper, tu utilises un actor existant : un script paramétrable, hébergé chez Apify, maintenu par sa communauté ou par les équipes Apify. Aujourd’hui le store en compte plus de 15 000 actors, du scraper Google SERP au crawler Amazon en passant par les extracteurs LinkedIn, Instagram, Trustpilot ou Booking. La page produit officielle Apify pour Claude Code liste les intégrations natives.

Le déclic arrive avec le serveur MCP officiel d’Apify (Model Context Protocol). Ce serveur expose tous les actors comme des outils consommables par n’importe quel agent IA compatible MCP. Notre guide du pattern Model Context Protocol explique le standard en détail, et la spécification officielle MCP documente le protocole brut. Concrètement : tu branches Claude Code sur le serveur MCP Apify, et l’agent gagne 15 000 super-pouvoirs en une commande.

Le résultat dépasse l’addition : tu n’écris plus de code de scraping, tu décris l’intention. « Récupère les top 20 résultats Google sur le keyword X en France, extrais titre, meta description, H1, et écris-moi un tableau comparatif » devient une commande exécutable en une phrase.

Installer le MCP Apify dans Claude Code en 5 minutes

Cinq étapes, aucune dépendance bizarre, ça tourne sous macOS, Linux et Windows.

1. Créer un compte Apify (gratuit, 5 USD de crédit offerts)

Va sur apify.com, inscris-toi, valide ton email. Le plan free t’offre 5 USD de plateforme usage par mois, suffisant pour tester sérieusement. Pour un usage pro régulier, le plan Starter à 49 USD / mois inclut 49 USD de crédits, ce qui est généralement plus que ce qu’un freelance consomme.

2. Récupérer le token API Apify

Dans la console Apify : Settings > Integrations > API tokens. Crée un token nommé claude-code, copie-le. Ce token permet à Claude Code de lancer des actors et de récupérer les résultats. Il a un accès complet à ton compte : traite-le comme un mot de passe.

3. Choisir hosted ou local

Deux options pour brancher le serveur MCP Apify :

  • Hosted (recommandé pour démarrer) : Apify héberge le serveur MCP sur https://mcp.apify.com. Tu pointes Claude Code dessus, c’est tout.
  • Local (stdio) : tu lances toi-même le serveur via npm. Plus de contrôle sur les actors exposés, utile en mode multi-environnements.

4. Ajouter le serveur MCP dans la config Claude Code

Pour la version hosted, ajoute ce bloc dans le fichier de config Claude Code (~/.config/claude/mcp.json ou équivalent selon ton OS) :

{
  "mcpServers": {
    "apify": {
      "url": "https://mcp.apify.com",
      "headers": {
        "Authorization": "Bearer apify_api_TON_TOKEN"
      }
    }
  }
}

Relance Claude Code. La documentation officielle Apify MCP liste les options avancées (allowlist d’actors, headers custom, mode debug).

5. Premier prompt de vérification

Tape : « Liste les actors Apify disponibles que je pourrais utiliser pour scraper Google SERP. » En 3 à 5 secondes, Claude Code te ramène la liste avec descriptions, prix par run et popularité. Tu confirmes que la connexion fonctionne.

5 USD de crédits offerts

Cinq cas d’usage SEO chiffrés

Les cinq workflows Claude Code Apify ci-dessous couvrent 90 % de ce que je demande à l’agent pour seo-rank-analyzer.fr. Chiffres mesurés sur deux mois d’usage, pas sur une démo.

1. Audit SERP des 10 premiers concurrents en 12 minutes

Quand Marc, consultant SEO freelance à Toulouse, a testé ce workflow en mars 2026, il préparait ses audits SERP concurrents en 8 heures par client : copier les 10 premiers résultats Google, ouvrir chaque page, noter title, meta, H1, structure éditoriale, dans une feuille Excel. Avec Claude Code branché sur l’actor apify/google-search-scraper, le même livrable sort en 12 minutes.

Le pattern : il fournit un keyword (par exemple « assurance auto pas chère »), Claude Code lance l’actor SERP, récupère les 10 URLs, déclenche un second actor de page scraper sur chacune, agrège dans un tableau markdown. Marc a ensuite le matériel pour son analyse concurrentielle SEO par IA. Sur 12 audits par mois, il récupère 90 heures.

2. Scraping de backlinks d’un concurrent (sans Ahrefs)

Tu n’as pas le budget de l’abonnement Ahrefs à 108 € / mois pour 4 audits ponctuels par mois. Apify propose des actors qui interrogent les bases publiques (Common Crawl, Wayback Machine) et certaines APIs gratuites pour ramener les profils de backlinks d’un domaine. Précision moindre qu’Ahrefs sur les domaines très linkés, mais largement suffisante pour identifier le top 100 référents d’un concurrent.

Coût : 0,15 à 0,40 USD par audit selon profondeur. Cas d’usage idéal pour les freelances qui ne facturent pas l’audit backlinks séparément.

3. Monitoring quotidien des prix des concurrents e-commerce

Tes clients vendent sur Shopify, WooCommerce ou PrestaShop. Tu veux leur rapporter les variations de prix de leurs trois concurrents directs chaque matin. L’actor générique web-scraper d’Apify lit n’importe quelle URL et extrait les sélecteurs CSS que tu lui donnes. Claude Code génère ces sélecteurs, lance le scraping quotidien, écrit le rapport markdown dans le vault.

Coût : 1 à 3 € / mois par client pour 3 concurrents suivis quotidiennement. Bonus livré à chaque audit mensuel, perçu comme une valeur ajoutée premium.

4. Lead generation pour agence SEO

Quand Élodie, fondatrice d’une agence SEO à Bordeaux (4 consultants), a branché ce workflow en février 2026, elle dépensait 480 € / mois sur Sales Navigator pour identifier ses prospects. Avec un actor Apify de scraping LinkedIn paramétré sur les fonctions « Head of SEO » et « Marketing Director » dans des entreprises de 50 à 500 salariés en France, et Claude Code qui enrichit chaque profil avec le site web de l’entreprise et un score de pertinence, elle sort 80 leads qualifiés par mois.

Coût Apify : 12 € / mois. Économie nette : 468 € / mois. Avertissement légal : le scraping LinkedIn est tolérable pour de la prospection B2B en France si tu respectes le RGPD (information préalable, droit d’opposition, ne pas vendre la base). Lis la section sécurité plus bas avant de lancer.

5. Veille de contenu publié par tes concurrents

Tu veux savoir chaque lundi quels articles tes 5 concurrents éditoriaux ont publié la semaine précédente. Apify a des actors de RSS aggregator et de blog scraper qui font le job. Claude Code te livre une note synthétique : titre, résumé, mot-clé cible probable, opportunité de contre-article. Temps total : 4 minutes pour traiter 5 sites. Avant Apify, je passais 90 minutes le lundi matin.

Tarification réelle pour un freelance

La tarification Apify peut paraître opaque au premier abord. Voici la grille décodée pour un usage SEO solo.

Plan Free : 5 USD de plateforme usage par mois. Suffisant pour tester sérieusement, lancer 100 à 200 runs d’actors basiques. Pas de carte bancaire requise.

Plan Starter (49 USD / mois) : inclut 49 USD de crédits par mois (l’abonnement et les crédits ne s’additionnent pas, c’est la même somme). Le bon plan pour un freelance qui audite 5 à 15 clients par mois et utilise Apify quotidiennement.

Plan Scale (199 USD / mois) : inclut 199 USD de crédits, accès aux fonctions équipe. Justifié à partir de l’usage agence (3+ consultants) ou de pipelines automatisés volumineux.

En pratique pour un freelance qui audite 12 clients SEO par mois, fait du monitoring de prix sur 5 sites e-commerce et 1 campagne de lead gen mensuelle : la consommation moyenne est de 25 à 40 USD de crédits. Le plan Starter est le bon calibrage. Comparé à un abonnement Semrush Pro à 139 USD / mois ou un Ahrefs Lite à 129 USD, le combo Apify + Claude Code livre 80 % des cas d’usage pour 35 % du prix. Le plan Pro de SEO Rank Analyzer à 29 € / mois pour 100 audits SEO complets vient compléter le stack pour la mesure et le suivi de scores.

Apify MCP vs Firecrawl MCP vs Bright Data MCP

Trois serveurs MCP de scraping dominent le marché. Voici la matrice de décision honnête.

Critère Apify MCP Firecrawl MCP Bright Data MCP
Nombre d’actors / outils 15 000+ 1 (crawler générique) 50+ datasets prêts
Pages anti-bot complexes Bonne couverture Moyenne Excellente (proxies premium)
Crawl générique d’un site Possible (web-scraper) Natif et excellent Possible
Tarif d’entrée Gratuit (5 USD / mois) 20 USD / mois 500 USD / mois entreprise
Adapté au solo SEO Oui Oui (crawl + résumé) Surdimensionné

Mon usage : Apify MCP en quotidien parce que la diversité d’actors couvre les cas d’usage variés du métier (SERP, leads, prix, contenu). Firecrawl quand je veux crawler un site complet et obtenir un résumé propre en markdown sans paramétrer. Bright Data jamais en solo, c’est calibré entreprise et le prix le confirme.

Si tu veux pousser le combo plus loin, regarde aussi mon setup Claude Code dans Obsidian : avec Apify branché en plus, tu obtiens un agent qui scrape, écrit dans le vault et entretient ta base de connaissances seul.

Sécurité, données et risques légaux

Trois niveaux de risque à comprendre avant de lancer ton premier scraping en prod.

Sécurité du compte Apify : ton token API permet de lancer n’importe quel actor et de débiter ton plan. Stocke-le dans un fichier .env non versionné. Si tu le commits par accident, révoque-le immédiatement dans la console Apify et régénère.

Conditions d’usage des sites scrapés : la jurisprudence française et européenne tolère le scraping de données publiques à des fins légitimes, mais chaque site a ses propres CGU. LinkedIn interdit explicitement le scraping dans ses CGU ; le contournement se fait à tes risques. Google tolère le scraping SERP modéré pour de la veille SEO professionnelle. Marketplaces e-commerce : vérifie systématiquement les CGU avant un usage commercial.

RGPD et données personnelles : dès que tu scrapes des données identifiables (nom, prénom, email, photo, fonction), tu deviens responsable de traitement au sens du RGPD. Trois obligations minimales pour un usage prospection B2B : information préalable du prospect (1er email avec mention de la collecte), droit d’opposition simple, suppression sur demande. Ne revends jamais une base scrapée à un tiers sans consentement explicite.

Mes garde-fous concrets :

  • Pas de scraping d’emails personnels (gmail, hotmail). Uniquement des emails pro publiés sur des sites d’entreprise.
  • Vault Apify séparé du vault clients, pour éviter les fuites de tokens entre projets.
  • Audit trimestriel des actors utilisés : si un actor n’a pas servi en 3 mois, je le retire de l’allowlist.
  • Limite de débit codée en dur dans le fichier CLAUDE.md (max 100 runs / heure pour éviter les surprises de facturation).

Ces garde-fous prennent 15 minutes à mettre en place et évitent 95 % des incidents.

Mon fichier CLAUDE.md pour piloter Apify

Le fichier qui transforme l’agent improvisateur en collaborateur cohérent. Extrait simplifié pour Apify :

# Apify operations rules

Tu peux utiliser le serveur MCP Apify pour lancer des actors.
Ton token est dans la variable d'environnement APIFY_TOKEN.

## Actors autorisés (allowlist)
- apify/google-search-scraper (SERP)
- apify/web-scraper (contenu page)
- compass/crawler-google-places (local SEO)
- apify/instagram-scraper (veille brand uniquement)

## Actors interdits
- Tout actor de scraping LinkedIn personal data
- Tout actor de scraping email gmail/hotmail
- Tout actor de captcha bypass

## Garde-fous
- Maximum 100 runs par heure
- Avant chaque lancement d'actor, demande confirmation
- Si le coût estime depasse 5 USD, demande confirmation

## Conventions de sortie
- Tous les rapports vont dans /scraping/AAAA-MM-JJ-keyword.md
- Format markdown table pour les datasets > 10 lignes
- Cite toujours la source (URL, date, actor utilise)

Trente lignes, pas plus la première semaine. Tu enrichis quand tu repères un comportement à corriger ou un actor à autoriser.

Foire aux questions

Faut-il un compte Apify payant pour utiliser le MCP avec Claude Code ?

Non. Le plan free offre 5 USD de plateforme usage par mois, suffisant pour tester sérieusement et faire 100 à 200 runs d’actors basiques. Le plan Starter à 49 USD / mois devient pertinent quand tu utilises Apify quotidiennement pour des clients.

Est-ce que c’est légal de scraper avec ce setup ?

La jurisprudence française tolère le scraping de données publiques à des fins légitimes (veille concurrentielle, recherche, journalisme). Trois zones grises : CGU des sites (vérifier au cas par cas), RGPD pour les données personnelles (responsable de traitement dès le premier nom-prénom-email), bases de données protégées au titre du droit sui generis. En B2B avec emails pros publiés et information du prospect, l’usage est sécurisé.

Combien d’actors je peux lancer en parallèle ?

Sur le plan Free, 5 actors simultanés. Sur le plan Starter, 25. Le plan Scale lève la limite à 100. Pour un usage SEO solo, le plan Starter est largement suffisant.

Est-ce qu’Apify supporte les sites JavaScript et les SPA React ?

Oui. Les actors Apify utilisent Playwright ou Puppeteer en backend, ils rendent le JavaScript exactement comme un navigateur. Les SPA React, Vue, Angular sont scrapables sans configuration spécifique.

Quelle différence avec Firecrawl MCP ?

Firecrawl est un crawler générique qui prend une URL et te ramène le contenu propre en markdown, idéal pour ingérer un site complet. Apify est une marketplace de 15 000 actors spécialisés (Google SERP, LinkedIn, Instagram, e-commerce, etc.). Pour un crawl d’ingestion, Firecrawl gagne. Pour des cas d’usage métier précis, Apify gagne.

Comment je debug un actor qui plante ?

La console Apify garde l’historique de chaque run avec logs détaillés, screenshots des pages au moment du crash, et requête HTTP exacte. Demande à Claude Code : « Récupère le dernier run de l’actor X, lis les logs, dis-moi pourquoi ça a planté. » Dans 80 % des cas, c’est un sélecteur CSS obsolète ou un anti-bot qui a bloqué.

Limites du combo

Trois usages où ce setup ne fait pas le job, pour cadrer les attentes :

  • Scraping ultra-volumique (plus d’un million d’URLs par mois) : la facture Apify devient déraisonnable au-delà de 500 USD / mois. À ce volume, un proxy provider type Bright Data avec scraper custom devient plus économique malgré la maintenance.
  • Sites avec captcha custom non résolu : certains marketplaces (Vinted, Leboncoin sur certaines pages) déploient des protections que les actors standards ne contournent pas. Apify a des actors avec captcha solver, mais le coût par run grimpe à 0,50 USD.
  • Latence vs script Playwright direct : lancer un actor Apify ajoute 5 à 15 secondes de cold start vs 1 à 2 secondes pour un script local. Inutile pour un scraping en temps réel critique. Acceptable pour 99 % des cas d’usage SEO.

Ce qu’il faut retenir

Claude Code Apify n’est pas un nouvel outil de plus. C’est la fin du scraping artisanal pour 90 % des cas d’usage SEO d’un solo ou d’une petite agence. Le coût d’entrée tient en 5 minutes d’installation et 5 USD de plan free. Le ROI s’observe dès le premier audit SERP livré en 12 minutes au lieu de 8 heures.

Le levier réel n’est pas la vitesse, c’est la disparition de la friction technique. Tu décris ce que tu veux extraire, l’agent lance le bon actor, tu reçois la donnée propre dans ton vault. Le temps que tu passes à scraper devient du temps que tu passes à interpréter et à conseiller tes clients.

Pour mesurer les résultats SEO de tes nouvelles données concurrentielles, branche notre audit SEO complet par IA sur le site cible et confronte les recommandations à ce que tu observes chez les concurrents. Lance ton premier audit gratuit en 3 minutes, puis configure Apify dans Claude Code dans la foulée. Si tu veux comprendre comment notre IA orchestre ses propres agents pour analyser un site de A à Z, le détour par les 21 patterns d’agents IA donne la mécanique complète.

Testez votre site maintenant

Analyse SEO gratuite par IA en 60 secondes.

Essai gratuit