Articles » Google Map » Google Maps API vs Scraping : Quelle méthode choisir pour extraire des données en 2025 ?

Pour un particulier, Google Maps est un outil cartographique. Mais pour une entreprise, Google Maps est une source quasiment inépuisable de leads aux quatre coins de la planète. Imaginons que vous êtes dans cette seconde catégorie.

Une fois qu'on a fait le bon diagnostic, il faut établir le bon traitement. Le traitement permettant de scraper les données Google Maps disponibles. Et en terme de traitement, plusieurs options s'offrent à nous :

Petit 1 : On peut extraire les données de façon encadrée à l'aide de l'API Google Maps.

Petit 2 : On peut faire les choses nous-mêmes comme des grands en créant un script ou en faisant un peu de no-code.

Ou alors : On peut extraire les données sans coder et en quelques clics avec Scrap.io, la  solution de web scrapping dédiée à Google Maps (200 millions d'établissements indexés).

Sommaire

  1. L'API Google Maps : Guide complet pour commencer
  2. Comment créer votre clé API Google Maps
  3. Création du script Python
  4. Lancement des requêtes
  5. Les limites et coûts de l'API Google Maps
  6. La deuxième méthode : créer le script soi-même
  7. Le problème de scalabilité : limite des 120 résultats
  8. Scrap.io : La solution alternative pour extraire les données Google Maps
  9. Démonstration de Scrap.io
  10. Analyse des données extraites avec Scrap.io
  11. FAQ - Questions fréquentes

L'API Google Maps : Guide complet pour commencer

Commençons par l'API Google Maps. Qu'est-ce que c'est exactement ? Comment l'utiliser et quels sont les potentiels inconvénients ?

Notez que pour ce qui va suivre, je ne vais parler que de ce que je connais. En d'autres termes, les exemples ne seront pas irréprochables, ils seront perfectibles, mais au moins vous aurez un retour d'expérience authentique. Parce que si je commence à parler de choses que je ne maîtrise pas, vous allez le sentir également.

Alors lorsqu'on regarde un petit peu plus au niveau de l'API Google Maps, on se rend compte que c'est un sujet vaste. Parce qu'en réalité, des API Google Maps, il y en a plusieurs. Il y a pour commencer quatre catégories principales.

Il faut déterminer quelle catégorie je souhaite pour scrapper des données. On va du coup utiliser "Places". Une fois qu'on a fait ça, on a différentes sous-catégories. Pareil, on a un travail de réflexion : quelle serait la sous-catégorie idéale si je veux extraire des données à partir d'une localisation et d'une catégorie ? Ici, catégorie dans le sens de profession : restaurant, plombier, hôtel, et cetera.

La sous-catégorie idéale pour ça, c'est le "Nearby Search" ou la recherche à proximité en français.

Comment créer votre clé API Google Maps

Alors évidemment, le meilleur point de départ à tout ça, c'est de jeter un œil à la documentation. Ici, on a du JavaScript, ce que je ne connais absolument pas, mais le point positif c'est qu'on peut parfaitement copier-coller ça et par la suite l'adapter à notre sauce en faisant du Python.

Mais avant même de faire ça, ce qu'on peut faire c'est de créer notre clé API Google Maps. Ce sera le point de départ, ce qui va nous permettre de lancer nos requêtes.

Pour créer l'API Google Maps, on va se rendre sur console.cloud.google.com. Puis on va se créer un nouveau projet. Ce projet, on va lui donner un nom, create, ça va prendre quelques secondes et on clique sur "Select project".

Puis on va sélectionner l'API qui nous intéresse. Du coup, on va aller dans "API et service" et dans "library" ou bibliothèque en français. On sélectionne notre API.

Alors pour l'API Nearby Search, il me semble que c'est l'API Places - "Places API new". On clique dessus et on enable. Et j'aurai accès à ma clé API.

En réalité, ça c'est si vous avez déjà créé un compte de facturation. Si ce n'est pas le cas, on va vous demander quelques étapes supplémentaires. Bref, voici ma clé API, je peux la coller quelque part et l'utiliser par la suite.

Pour un guide plus détaillé sur cette étape cruciale, consultez notre guide complet pour obtenir sa clé API Google Maps qui vous accompagne pas à pas dans le processus.

Création du script Python

Une fois que c'est fait, pour notre script, on va commencer par importer les bibliothèques nécessaires. Peut-être Pandas si on veut obtenir un fichier CSV ou Excel. Pour le fichier Excel, il faudra également importer OpenPyXL. Importer JSON et peut-être importer ce qui va nous permettre de créer une data class.

Bref, une fois qu'on a fait ça, on va copier-coller notre JavaScript et on va créer deux variables JSON distinctes.

Pour ceux qui préfèrent une approche avec Python et Selenium, nous avons préparé un guide complet pour scraper Google Maps avec Python qui détaille cette méthode alternative.

Pour la première, on peut mettre plus ou moins de paramètres, mais il y en a vraiment deux de primordial à savoir :

L'includedTypes : c'est-à-dire la catégorie, la profession que l'on souhaite scrapper. Par défaut ici c'est "restaurant". Pour obtenir la liste des différentes professions proposées, on a également une documentation pour ça. Alors je me demande si tout est exhaustif, mais voilà quelques exemples. Donc simplement, je remplace "restaurant" par ce que je souhaite.

La localisation : vous voyez qu'on a un rayon et on a un point de départ symbolisé par la latitude et la longitude. Cette latitude et longitude, on peut parfaitement la changer. Pour obtenir la latitude et la longitude d'un point, c'est très simple : sur Google Maps, je clique sur un point et j'ai accès à la latitude et la longitude.

Encore une fois, comme je l'ai dit, on peut rajouter plus ou moins de paramètres, là c'est à vous de voir, mais dans tous les cas ils sont dans la documentation.

Une fois que tout ça est fait, on va pouvoir créer notre seconde variable JSON. Deux choses importantes ici : on va mettre là notre clé API et ici les données que l'on veut extraire.

Pour obtenir le nom des colonnes disponibles, pareil, on va se rendre dans la documentation. Donc il y a différentes catégories, mais voici ce qu'on peut avoir : premier bloc, deuxième bloc, troisième bloc. Pour prendre un exemple, si on veut obtenir le numéro de téléphone, il va falloir taper "places.nationalPhoneNumber".

Lancement des requêtes

Par la suite, on va pouvoir lancer notre requête. On va pas faire un request.get mais plutôt un request.post en mettant en paramètre les deux variables JSON que l'on a créé auparavant.

Et au final, nos résultats seront dans un format JSON. Il faut par la suite le trier, déterminer quelle donnée correspond à quoi. Donc dans mon cas, je vais créer une data class, ce qui va être un objet contenant toutes les données que je souhaite extraire. Je vais le mettre dans une fonction par la suite et je l'utilise pour convertir ce format JSON dans un fichier CSV ou Excel.

Pour ça, on va utiliser Pandas et on utilise ce qu'on appelle une DataFrame. Une DataFrame, c'est ce qu'on peut appeler un tableau, comme un tableau Excel. Enfin, j'enregistre le tout et on obtient quelque chose comme ça.

Les limites et coûts de l'API Google Maps

Alors, deux-trois choses à dire sur cette méthode. Tout d'abord, elle fonctionne, oui certes, mais elle n'est pas terminée. C'est un processus qui est très long d'autant plus que ce qu'on a fait, bah ce n'est pas fini. Pour l'instant, on a extrait que 20 données, donc il va falloir scaler la chose pour obtenir plus de data. Et on n'a pas encore géré toutes les potentielles erreurs, et ça, Dieu sait que c'est un vrai travail.

Enfin, il faut constamment jeter un œil au niveau du coût, parce que l'API de Google Maps, certes, a un essai gratuit, mais si jamais on veut faire du volume, l'addition va devenir très vite salée.

Google Maps API pricing : Ce qu'il faut savoir

L'API Google Maps pricing peut rapidement devenir un frein pour les projets nécessitant d'extraire un grand volume de données. Les tarifs évoluent selon l'usage et peuvent rapidement grimper.

Enfin, on est limité par ce que nous autorise à faire l'API, ce qui est normal. Mais par exemple, je ne suis pas certain qu'on puisse obtenir l'adresse email ou si c'est le cas, c'est disponible à l'aide d'une autre API. Donc ça rajoute encore plus de complexité, encore plus de travail. Bref, on n'est pas sorti de l'auberge.

Si vous souhaitez approfondir vos connaissances sur l'API Google Maps et découvrir toutes ses possibilités, notre article Tout savoir sur l'API Google Maps et ses fonctionnalités vous donnera une vision complète de cet outil.

La deuxième méthode : créer le script soi-même

La deuxième méthode est de créer le script soi-même. Ici, on va parler des méthodes low-code ou no-code.

Voici un exemple concret pour scrapper Google Maps en low-code :

  • Il faut utiliser l'URL
  • Scroller la partie listing (attention, il faut uniquement scroller la partie listing à gauche et non pas scroller la partie générale à droite)
  • Une boucle pour récolter toutes les entreprises
  • Cliquer sur les URL de chaque entreprise
  • Extraire les données
  • Nettoyer les données
  • Et lancer l'extraction

Tout ça pour dire que ce n'est pas forcément une méthode plus rapide. C'est peut-être plus simple que l'API Google Maps, quoique, mais c'est aussi plus sujet à erreur.

Vous allez me dire qu'il y a d'autres outils qui permettent de scrapper Google Maps sans pour autant avoir toute cette complexité. Mais dans tous les cas, tous ces outils souffrent d'un problème majeur : c'est la scalabilité.

Le problème de scalabilité : limite des 120 résultats

La scalabilité, c'est le principe de dire qu'il est aussi facile de scrapper 100 résultats que 10 000. Et le problème, c'est que pour chaque requête Google Maps que vous faites, vous êtes limité à 120 résultats.

Faites le test : faites une recherche très générique, par exemple "les bars à Paris", et bien vous tomberez quand même sur 120 résultats. Et parlant d'expérience, il y a bien plus que 120 bars sur Paris !

Du coup, comment faire pour avoir l'exhaustivité des données sans pour autant y passer des heures ?

Scrap.io : La solution alternative pour extraire les données Google Maps

Et bien, on peut utiliser la troisième et dernière méthode, à savoir Scrap.io.

Si vous ne possédez pas de compétences en développement ou si vous avez d'autres choses à fouetter, avec Scrap.io vous pouvez extraire vos données Google Maps en l'espace de quelques clics. Il vous suffit de spécifier la ville cible et le type d'activité recherché. Ensuite, Scrap.io s'occupe du scrapping. Vous avez besoin de ne rien faire d'autre et vous obtenez votre fichier téléchargeable quelques instants plus tard.

Contrairement aux limitations de l'API Google Maps, Scrap.io couvre 195 pays et plus de 4000 catégories d'activités. L'outil permet même d'extraire toutes les entreprises d'un pays entier en deux clics, sans code.

Le mieux, c'est peut-être que je vous montre.

Démonstration de Scrap.io

Nous voici sur Scrap.io. Pour y accéder, vous pouvez cliquer sur le lien en description. Et la première chose à faire, c'est de se créer un compte, ce qui nous permettra d'obtenir un essai gratuit de 7 jours contenant 100 leads.

Une fois que c'est fait, vous allez tomber sur votre page de recherche. C'est ici que vont se dérouler toutes nos requêtes Google Maps.

Vous voyez qu'on va insérer :

  • Une activité
  • Un pays
  • Une division de niveau 1
  • Une division de niveau 2
  • Ainsi qu'une ville

Alors, on va voir à quoi correspond tout ça.

L'activité, très simplement, c'est la profession. Et des professions, il y en a pas mal. En réalité, il y en a à peu près 4 000 sur Google Maps. Donc si vous cherchez une petite ou moyenne entreprise, il y a forcément une catégorie Google Maps qui lui correspond, ou à minima un synonyme de catégorie.

Vous voyez que par exemple, on a "caviste" et "cave à vin". C'est pas tout à fait pareil, mais c'est assez similaire. La même chose que si jamais je tape une catégorie très globale comme par exemple "les restaurants". Vous voyez qu'il y a "les restaurants", mais il y a aussi plein de sous-types.

Ensuite, il y a les pays. Pareil, les pays, bah il y en a pas qu'un seul. Et si jamais je veux changer, passer des États-Unis à la France, bah je peux parfaitement le faire.

Ensuite, ce qui est un petit peu plus énigmatique, c'est la division de niveau 1 et la division de niveau 2. Donc la ville, on comprend très bien ce que c'est. Si jamais je veux obtenir les restaurants à Paris, ben je tape Paris, je clique sur Paris et je clique sur "Rechercher", et j'aurai accès aux restaurants sur Paris aussi simplement que ça.

Maintenant, la division de niveau 1, elle correspond à la région, et la division de niveau 2, elle correspond au département. Mais alors, pourquoi on les appelle pas directement comme ça ? Tout simplement parce que, encore une fois, il y a plusieurs pays disponibles, et de ce fait, une région et un département, ça n'a pas la même signification partout.

Par exemple, aux États-Unis, l'équivalent du département, c'est le "County", et l'équivalent de la région, bah c'est l'état. C'est beaucoup plus grand.

De ce fait, vous pouvez faire des recherches à l'échelle d'un département ou à l'échelle d'une région, voire à l'échelle d'un pays entier. Mais cela correspond à différents niveaux de forfait. Avec le forfait de base, vous pouvez récolter des leads à l'échelle d'une ville.

Exemple pratique avec Toulouse

On va mettre Toulouse cette fois-ci. On nous dit qu'il y a 1 620 résultats. Mais avant de les exporter tout de suite, on peut par exemple les filtrer.

Vous voyez qu'il y a des filtres essentiels et des filtres avancés. Encore une fois, ça dépend du forfait, mais quelques filtres intéressants :

  • C'est de savoir si l'entreprise est fermée ou non
  • S'il possède un site internet ou peut-être une adresse email
  • Vous avez également des réseaux sociaux
  • Si sa fiche a été revendiquée par Google Maps (c'est-à-dire est-ce que le propriétaire a fait les démarches pour créer un compte Google My Business)
  • Peut-être un niveau minimal de notes
  • On peut mettre une échelle sur le nombre d'avis, le nombre de photos, et cetera

Si je clique sur "Filtrer", j'aurai des résultats beaucoup plus ciblés.

Exportation des données

Une fois que je suis content avec ce que j'ai, je peux les exporter. Cliquer dans "option avancée" et indiquer un nom, nombre de lignes maximum à exporter. Si je veux 30 lignes, bah je tape 30 lignes comme ceci. Je clique sur "Exporter" et là, je vais être transféré à l'onglet "mes exports".

Donc "mes exports", c'est tout simplement tous les exports que j'ai fait jusqu'à présent. Ces exports, je peux les mettre à jour s'ils sont plus anciens que 30 jours, auquel cas ça va relancer la même requête. Et une fois que cela sera terminé, je vais pouvoir cliquer sur "Télécharger" et obtenir un fichier CSV ou Excel.

Et d'ailleurs, c'est même terminé, donc on va le faire tout de suite.

Analyse des données extraites avec Scrap.io

Donc voici ce que je peux obtenir au final :

Bien sûr, les informations de base :

  • Le nom de l'entreprise
  • La description si elle est disponible
  • Diverses descriptions
  • Le type principal (c'est-à-dire la catégorie)
  • Et tous les types (à savoir les catégories secondaires)

Notre filtre "est fermé définitivement" : et bel et bien sur "non", donc ça c'est parfait.

  • Le site Internet
  • Le téléphone
  • L'adresse complète qui est subdivisée en différents types
  • On a le lien Google Maps
  • Les ID
  • L'adresse email : est-ce que notre filtre sur les adresses email a bel et bien fonctionné ? Il a été.

Les liens sur les réseaux sociaux :

  • Facebook
  • YouTube
  • Twitter
  • Instagram
  • LinkedIn

"Vu pour la première fois" et "vu pour la première fois timestamp" : cela donne un indice d'ancienneté. C'est-à-dire que notre scrapper a vu la fiche la première fois le samedi 28 août 2021 à 7h54. Ça veut pas dire que la fiche a été créée à ce moment-là, ça veut dire que la fiche a été découverte à ce moment-là.

  • On a la gamme de prix si elle est disponible
  • Le nombre d'avis
  • La note des avis
  • Le nombre d'avis par note
  • Les photos
  • Les URL de certaines des photos
  • Les heures d'ouverture
  • Et les caractéristiques (donc qui sont dans un format JSON)

Données du site web

Titre du site : donc là, on est passé des caractéristiques sur les fiches Google Maps aux caractéristiques sur les sites internet s'ils sont disponibles. On a du coup :

  • Le titre du site
  • Les meta keywords s'ils sont disponibles
  • La meta description
  • Les meta images
  • Tout ce qui se trouve au niveau de la balise HEAD, si je ne m'abuse
  • La meta generator (donc l'outil qui a été utilisé pour créer le site)
  • Des adresses email complémentaires
  • Pareil pour les pages de contact : page de contact 1, 2, 3, 4, 5
  • On a tous les liens des réseaux sociaux globalement jusqu'à LinkedIn
  • Les technologies du site
  • Ainsi que les pixels publicitaires

FAQ - Questions fréquentes

Qu'est-ce que l'API Google Maps ?

L'API Google Maps est un ensemble d'outils de programmation qui permet aux développeurs d'intégrer Google Maps directement dans les sites web et les applications. Elle offre différentes fonctionnalités comme l'affichage de cartes, la recherche de lieux, et l'extraction de données géographiques.

L'API Google Maps est-elle gratuite ?

L'API Google Maps offre un essai gratuit avec des crédits mensuels. Cependant, si vous dépassez ces limites ou souhaitez faire du volume, l'API Google Maps pricing peut devenir coûteuse très rapidement.

Comment obtenir une clé API Google Maps ?

Pour obtenir votre clé API Google Maps :

  1. Rendez-vous sur console.cloud.google.com
  2. Créez un nouveau projet
  3. Activez l'API Places dans la bibliothèque
  4. Générez votre clé API dans les identifiants
  5. Configurez la facturation si nécessaire

Quelle est la limite de résultats avec l'API Google Maps ?

L'API Google Maps est limitée à 120 résultats par requête, ce qui peut être problématique pour extraire l'exhaustivité des données d'une zone géographique.

Scrap.io est-il légal pour extraire des données Google Maps ?

Oui, Scrap.io extrait uniquement des données publiques autorisées par les lois européennes et américaines. L'outil est RGPD compliant et l'usage commercial est autorisé.

Pour en savoir plus sur les aspects légaux et les bonnes pratiques, consultez notre guide détaillé : Est-il légal de faire du scraping sur Google Maps ?

Combien coûte Scrap.io comparé à l'API Google Maps ?

Scrap.io propose des forfaits fixes mensuels à partir de 49€ avec 10 000 crédits, tandis que l'API Google Maps pricing fonctionne au volume de requêtes, ce qui peut rapidement devenir plus cher pour des extractions importantes.

Puis-je extraire des adresses email avec Google Maps ?

Avec l'API Google Maps officielle, l'extraction d'adresses email n'est pas directement disponible ou nécessite des API supplémentaires. Scrap.io permet d'extraire directement les adresses email trouvées sur les sites web des entreprises.

Quelle méthode choisir : API Google Maps ou Scrap.io ?

  • API Google Maps : Idéal si vous avez des compétences techniques, un budget flexible et des besoins d'intégration poussée
  • Scripts custom : Pour des développeurs expérimentés avec du temps disponible
  • Scrap.io : Parfait pour extraire rapidement de gros volumes de données sans compétences techniques, avec un coût fixe prévisible

Prêt à générer des prospects depuis Google Maps?

Essayez Scrap.io gratuitement pendant 7 jours.