Articles » Comparatifs » Comparatif Détaillé de Scraping Google Maps avec Apify vs Scrap.io

Il y a 15 000 restaurants répertoriés à Paris sur Google Maps. Pour obtenir cette liste complète de données, deux options s'offrent à nous.

Numéro 1 : aller sur Google Maps, faire une recherche, se rendre compte qu'on est bloqué à 120 résultats max. Répéter donc l'opération 125 fois et copier-coller chaque fiche dans un fichier Excel. En raison de deux lignes par minute, cela devrait vous prendre seulement 5 jours pour finir le tout. S'endormir, manger ou cligner trop longtemps des yeux ? Sinon c'est pas drôle !

Numéro 2 : le web scraping, la version automatisée de la méthode numéro 1.

Et dans ce petit monde du scraping, je vous propose de comparer  2 outils : Apify et Scrap.io.

Comment fonctionnent-ils ? Quelles données pouvez-vous récolter ? Quelle est la meilleure option pour extraire des données de Google Maps ?

📋 Sommaire

  1. Introduction : Le Défi des 15 000 Restaurants Parisiens
  2. Les Bases : Qu'est-ce qu'Apify et Scrap.io ?
  3. Comparaison Détaillée : 3 Critères d'Évaluation
  4. Test avec Apify (Google Maps Scraper)
  5. Test avec Scrap.io
  6. Analyse des Données Obtenues
  7. Conclusion : Quel Outil Choisir ?
  8. FAQ : Questions Fréquentes

2 Plateformes, 2 Philosophies : Apify vs Scrap.io

Commençons par les bases. Apify et Scrap.io, qu'est-ce que c'est ? Ce sont toutes deux des plateformes de web scraping professionnelles. Pourtant, en allant sur la page d'accueil, on observe une différence notable.

Apify, c'est "your full stack platform for web scraping", ce qui peut se traduire par "votre plateforme complète pour le web scraping". Et Scrap.io, c'est "votre générateur de prospect depuis Google Maps".

En d'autres termes, Apify est un généraliste, Scrap.io est un spécialiste.

Apify, c'est une Marketplace qui met à sa disposition des milliers d'API différentes créées par des acteurs différents. Du coup, lorsqu'on cherche quelque chose lié à Google Maps, on est souvent submergé d'informations, ne sachant pas toujours quel chemin prendre.

D'ailleurs, pour des raisons de simplicité pour la suite de cette vidéo, on va se concentrer sur les trois API les plus populaires : Google Maps Scraper, Google Maps Extractor et Google Maps Email Extractor.

De l'autre côté, Scrap.io a fait de Google Maps sa spécialité en misant sur la facilité d'exécution et l'automatisation. Deux clics, c'est tout ce qu'il faut pour avoir un aperçu des résultats. Avec plus de 200 millions d'établissements indexés.

Scrap.io est la seule solution qui permet d'extraire toutes les fiches Google Maps à l'échelle d'un pays entier en deux clics, sans code.

Comparaison Détaillée : 3 Critères d'Évaluation

Jusqu'à présent, on a gratté la surface, mais on n'a pas encore comparé les différentes fonctionnalités des deux outils. Et pour se faire, on va les évaluer avec trois critères :

  • L'input demandé
  • La précision des recherches
  • Les données ressorties

1. L'Input Demandé

On a trois options différentes pour l'input de Google Maps Scraper d'Apify:

Numéro 1 : Un mot-clé et une localisation, un peu comme on le ferait normalement sur Google Maps.

Numéro 2 : Une URL. L'URL Google Maps qui se modifie au moindre coup de souris. URL qui elle-même prend en compte notamment la longitude, la latitude et le niveau de zoom.

Numéro 3 : Une zone customisable. On peut créer notre propre zone géographique en la dessinant à l'aide d'un polygone ou d'un cercle. C'est assez niché comme utilisation, mais parfois ça a son utilité, notamment lorsqu'on cible un centre-ville ou une île par exemple.

Maintenant, pour Scrap.io : tout se situe sur la même interface. On se base sur une catégorie Google Maps et quatre critères de localisation : le pays, la division de niveau 1, la division de niveau 2 et la ville.

Le pays et la ville sont assez explicites, mais que signifie division de niveau 1 et division de niveau 2 ?

Division de niveau 1 et 2 désigne les étapes intermédiaires entre la ville et le pays. En France, c'est ce qui correspond au département et à la région. Mais si je change de pays, l'intitulé ne sera évidemment pas le même. Et vu que Scrap.io est capable de scraper près de 195 pays couverts, il a fallu trouver une dénomination universelle.

En fonction de mon plan, je peux mettre tous les inputs ou un seul des 4 si je le souhaite. En d'autres termes, j'ai la possibilité de scraper des leads à l'échelle d'un pays entier.

2. La Précision des Recherches : Les Filtres

Maintenant qu'on a vu les différents inputs, on va pouvoir se pencher sur les filtres. C'est-à-dire le degré de précision avec laquelle on peut effectuer une requête.

Les Filtres d'Apify (Google Maps Scraper)

Sur Google Maps Scraper, les filtres sont assez basiques, mais ils existent. On les trouve dans la catégorie "Search Filters and Categories", c'est logique.

Pour commencer, on a un critère sur le nom de l'établissement. Vous pouvez scraper uniquement les fiches qui incluent le mot-clé dans le titre. Donc si je souhaite obtenir tous les McDonald's d'une ville, je peux le faire.

Je peux aussi scraper les entreprises ayant une note égale ou supérieure à ce qui est déjà un filtre par défaut sur Google Maps.

En plus de tout ça, on peut scraper uniquement les entreprises ouvertes et filtrer les entreprises ayant ou n'ayant pas de site internet.

Les Filtres de Scrap.io

Maintenant, au niveau de Scrap.io, les filtres sont un petit peu plus nombreux. Ils attendent sagement derrière le bouton "Filtrer". On distingue les filtres essentiels et les filtres avancés.

Parmi les filtres essentiels, on compte exclusivement des booléens :

  • Si l'établissement est fermé ou non
  • La présence ou non d'un site internet
  • D'un téléphone
  • D'un email
  • D'un compte Facebook (enfin je veux dire d'un compte Meta)
  • Un compte Instagram, YouTube, Twitter (enfin je veux dire d'un compte X) ou LinkedIn

On a aussi un filtre "activité principale uniquement". Mais dites-moi, savez-vous ce que c'est ? Sur Google Maps, on fait la distinction entre la catégorie principale et les catégories secondaires. De ce fait, un restaurant en tant qu'activité principale peut aussi être répertorié en tant que café, bar ou hôtel en activité secondaire.

Pour les filtres avancés, on retrouve :

  • La gamme de prix
  • La note
  • Le nombre d'avis
  • Le nombre de photos
  • Si la fiche a été revendiquée par le propriétaire (une information extrêmement précieuse pour savoir si l'entreprise s'est déjà investie un minimum dans sa visibilité en ligne)
  • La présence d'un formulaire de contact ou de pixel publicitaire sur le site

En effet, si la fiche possède un site web, on va pouvoir piocher des informations propres au SEO.

3. Les Données Extraites : Test Pratique

Et les données, justement, parlons-en ! Le meilleur moyen de faire la comparaison, c'est de faire le test !

Test avec Apify (Google Maps Scraper)

J'ai pris une URL quelconque, on va extraire disons 10 restaurants et on va utiliser Google Maps Scraper.

Alors, on veut donner quel input ? Si on a pris une URL, on va la mettre ici. On ajoute une URL, voici ! Et on va tout passer en revue :

  • Quel détail est-ce qu'on veut scraper ?
  • Est-ce qu'on veut scraper les images ?
  • Est-ce qu'on veut scraper les reviews, les avis ? Pas forcément.
  • Est-ce qu'on scraper les questions ? Alors vous savez, les questions, c'est généralement ce qui précède les avis.

On définit la zone de recherche ? Ouais, mais on l'a déjà fait avec l'URL, donc on n'a pas besoin de le refaire.

Scraper uniquement les places dans la zone de recherche ? Non.

Le nom, minimum d'étoiles ? On les veut tous. On veut uniquement les établissements ouverts, évidemment. Et on va scraper tous les endroits, ceux avec un site web et ceux qui n'en ont pas.

Je pense que c'est bon là-dessus, on va pouvoir cliquer "Save and Start". Donc là, ça va prendre un petit peu de temps.

Résultats obtenus :

Au final, on a bien nos résultats. Donc on a ici les données de base : le nom de l'établissement, la note, le nombre d'avis, l'adresse, le site web, le numéro de téléphone, et cetera et cetera.

Après, on peut jeter un œil un petit peu plus attentif au niveau des notes par exemple, ou tout simplement accéder à toutes les colonnes si on le souhaite.

Mais vous allez me dire qu'il manque notamment les données propres au site internet. C'est-à-dire qu'on n'a pas accès aux adresses email s'ils existent, ni aux réseaux sociaux.

Et ça, c'est quelque chose que l'on peut avoir si on utilise une autre API, Google Maps Email Extractor. Et ça fonctionne également de la même façon que Google Maps Scraper et permet de récolter les réseaux sociaux ainsi que les emails s'ils existent.

Ça, c'est pour Apify.

Test avec Scrap.io

Maintenant, comment ça fonctionne avec Scrap.io ? Et bien sur Scrap.io, comme on l'a vu, on va simplement insérer une catégorie, nos critères de localisation, et on va pouvoir filtrer nos données tranquillement.

On va reprendre un exemple basique, à savoir "restaurant". On va changer de pays - donc là j'avais pris Finland. Vous voyez que des pays, on en a quand même pas deux ou trois ! On va prendre la France.

Je peux cibler une région, un département ou une ville. On va remettre Paris, rechercher, et on a 15 000 résultats.

Donc je peux filtrer mes données. Je peux par exemple dire : "Je ne souhaite uniquement que les fiches ayant une adresse email". Je vais pouvoir cliquer sur "Filtrer" et là j'aurai ici un aperçu des données que je vais avoir.

Notez que ce n'est qu'un aperçu, parce que lorsque je vais cliquer sur "Exporter", ça va relancer l'extraction pour être certain que j'ai accès à des données mises à jour.

Donc on a 3 954 restaurants avec au minimum une adresse mail. Je vais pouvoir faire "Exporter". Je vais ici, dans ce cas, mettre uniquement 10 lignes. "Exporter", on va donner un nom à notre export et on clique sur "Exporter".

Là, je retrouve au niveau de mes exports le temps que ça prépare le scraping. Il me restera alors plus qu'à cliquer sur "Télécharger" et fichier CSV ou Excel.

Analyse des Données Obtenues avec Scrap.io

Dans les fichiers d'export de Scrap.io, on retrouve :

  • Le nom de l'établissement
  • Les descriptions
  • Si le restaurant est fermé
  • Le type principal (vous vous en souvenez) et tous les types (les catégories secondaires)

Grosso modo, on a accès à toutes les informations présentes sur les fiches Google Maps : donc l'adresse, le numéro de téléphone, l'adresse postale, les notes, ...

Et là, on attaque les données présentes sur les sites web, à savoir :

  • L'email
  • Les liens des différents réseaux sociaux
  • Vu la première fois (ce qui peut donner une indication au niveau de l'ancienneté de la fiche)

On a accès aux avis clients : donc le nombre d'avis, la note, la répartition des avis, les photos, les occupations (c'est-à-dire les horaires d'affluence), si la fiche est revendiquée sur Google Maps, les heures d'ouverture, les caractéristiques.

Et là, on a des données propres au SEO : c'est-à-dire le titre du site, les méta keywords, les méta description, les méta image. Tout ça, ça vous parle si jamais vous êtes dans ce milieu du marketing digital.

On a un petit bonus avec des adresses emails supplémentaires si elles existent, qui sont toutes répertoriées dans une ultime colonne qu'on a appelée "tous les emails".

Pareil au niveau des pages de contact - on en a parlé, il s'agit d'un critère de Scrap.io - et idem pour tous les liens Facebook, YouTube, Twitter, Instagram, LinkedIn.

Et on termine enfin par les technologies du site et la présence de pixel publicitaire, ce qui peut vous donner une indication quant au budget qu'est prête à dépenser une entreprise dans de la pub.

Conclusion : Quel Outil Choisir pour Extraire des Données Google Maps ?

Pour conclure, Apify et Scrap.io font tous deux du web scraping, mais ils sont difficilement comparables l'un à l'autre.

Apify est utile pour des extractions de données nichées. De plus, un temps d'adaptation est souvent nécessaire à chaque fois que l'on veut appréhender une nouvelle API.

De l'autre côté, Scrap.io est l'outil idéal pour du scraping Google Maps exigeant et à grande échelle. Les données sont constamment mises à jour pour un scraping rapide et indolore. Vous insérez vos paramètres, on s'occupe du reste.

Avec des plans tarifaires allant de 49€/mois (10 000 crédits d'export) à 499€/mois (100 000 crédits d'export), et un essai gratuit de 7 jours avec 100 crédits d'export, Scrap.io permet également une intégration via Make.com pour automatiser complètement vos workflows de prospection.

❓ FAQ : Questions Fréquentes sur le Scraping Google Maps

Est-il légal de scraper Google Maps ?

Oui, le scraping de Google Maps est légal tant que vous respectez certaines conditions. Les données publiquement accessibles sur Google Maps peuvent être extraites légalement. Cependant, vous devez respecter les conditions d'utilisation de Google et les réglementations sur la protection des données personnelles (RGPD en Europe). Comme mentionné dans notre test, évitez de collecter des données personnelles sans raison légitime. Scrap.io est RGPD compliant et ne traite que des données publiques autorisées par les lois US et européennes.

Quel est le meilleur outil gratuit pour scraper Google Maps ?

D'après notre comparaison, Scrap.io offre les 100 premiers leads pour débuter. Apify propose également un plan gratuit avec 5$ de crédits d'usage par mois. Pour des besoins ponctuels, ces options gratuites sont suffisantes. Pour un usage professionnel régulier, un abonnement payant sera nécessaire.

Quelle est la différence entre Apify et Scrap.io ?

La principale différence réside dans leur spécialisation : Apify est un généraliste qui propose des milliers d'API pour différents sites web, tandis que Scrap.io est un spécialiste focalisé exclusivement sur Google Maps. Apify offre plus de flexibilité mais nécessite plus de configuration, alors que Scrap.io privilégie la simplicité avec seulement deux clics pour obtenir des résultats.

Combien coûte l'extraction de données Google Maps ?

Les prix varient selon l'outil et le volume :

  • Scrap.io : À partir de 49€/mois pour 10 000 crédits d'export (Plan Basic)
  • Apify : À partir de 49$/mois pour le plan Starter (environ 15 000 à 20 000 leads)
  • Le coût dépend aussi de la complexité des données extraites (avis, images, informations SEO, etc.)

Peut-on extraire les emails et réseaux sociaux avec ces outils ?

Oui, mais avec des différences importantes :

  • Scrap.io extrait directement les emails, réseaux sociaux et données SEO dans un seul scraping avec jusqu'à 10 emails par fiche
  • Apify nécessite d'utiliser plusieurs API séparées : Google Maps Scraper pour les données de base, puis Google Maps Email Extractor pour les contacts et réseaux sociaux

Comment éviter d'être bloqué lors du scraping ?

Les deux outils gèrent automatiquement la rotation d'IP et les délais pour éviter les blocages. Scrap.io dispose d'une capacité de 5 000 requêtes par minute et propose un système de filtrage avant extraction pour ne payer que des contacts utiles. Pour des extractions importantes :

  • Limitez le nombre de requêtes simultanées
  • Respectez les délais entre les extractions
  • Utilisez les filtres pour cibler précisément vos besoins

Quelle quantité de données peut-on extraire ?

D'après notre test pratique avec 15 000 restaurants parisiens :

  • Google Maps limite normalement à 120 résultats par recherche
  • Scrap.io permet de contourner cette limitation et d'extraire toutes les fiches d'un pays entier en deux clics
  • Apify peut également dépasser la limite avec les bonnes configurations
  • Le volume final dépend de votre plan d'abonnement et de la zone géographique ciblée

Les données extraites sont-elles à jour ?

Oui, les deux outils extraient les données en temps réel depuis Google Maps. Scrap.io utilise une extraction directe sans base de données obsolète, garantissant que les données sont toujours à jour et valides. Comme mentionné dans notre comparaison, l'outil relance même l'extraction lors de l'export pour garantir des données mises à jour.

Prêt à générer des prospects depuis Google Maps?

Essayez Scrap.io gratuitement pendant 7 jours.