Articles » Google Map » Comment Scraper Google Maps sur un Pays Entier (Guide Complet)

Google Maps est la base de données parfaite pour trouver des TPE et PME. On a un ciblage clair, des données cohérentes, une présence internationale.

Mais bien que ces données soient accessibles à littéralement tout le monde, scraper Google Maps à grande échelle est beaucoup plus délicat.

Soyons honnêtes : extraire quelques centaines de leads ce n'est pas la même chose que scraper des dizaines de milliers d'entreprises.

Scraper 5 colonnes ce n'est pas la même chose que scraper 35.

Mais peut-on faire les deux en même temps ? Peut-on utiliser un google maps scraper à grande échelle, voire même à très grande échelle, et en même temps obtenir des données les plus exhaustives possibles ?

Dans cette présentation, on va comparer deux méthodes pour scraper google maps efficacement.

La première méthode sera un peu débrouille - on va se creuser la tête et utiliser un peu de technique pour arriver à nos fins. La deuxième méthode elle sera beaucoup plus centralisée, beaucoup plus simple aussi parce qu'on aura besoin d'absolument zéro compétences techniques. Et cette méthode elle porte un nom : scrap.io.

Table des Matières

La Méthode Débrouille : Scraping Google Maps avec des Outils Techniques

On va commencer par la première méthode, à savoir la méthode débrouille. L'objectif c'est de scraper un maximum de restaurants, mais pas à l'échelle d'une ville, ni même à l'échelle d'un département, ni même à l'échelle d'une région, mais bel et bien à l'échelle de la France entière.

Et le problème c'est évidemment qu'on ne peut pas faire ça directement. En d'autres termes, ce qu'on va devoir faire c'est d'identifier les différentes communes en France - et croyez-moi il y en a un paquet - puis par la suite d'insérer ces différentes communes sur Google Maps et de faire une boucle que l'on va répéter 34, 35000 ou 36000 fois.

Cela donnera donc "restaurant à proximité de Paris", puis "restaurant à proximité de Strasbourg", de Lyon, de Marseille, etc.

Étape 1 : Scraper la Liste des Communes

Ce que vous devez faire du coup dans un premier temps c'est de scrapper la liste de ces communes. Il se trouve qu'il y a un site qui répertorie l'entièreté des communes, donc ça tombe bien. Vous voyez que sur ce site là on a les départements - donc là par exemple le département de l'Ain - et on nous dit qu'il y a 419 communes qui sont présentes sur la fiche.

On va du coup créer un scrapper en partant de cette URL de départ. Pour le scrapper, utilisez celui que vous voulez, pour ma part je vais utiliser Octopars. Je copie l'URL, je le colle et je clique sur Start.

💡 Conseil : Si vous préférez une approche plus simple sans programmation, découvrez notre guide des meilleures extensions Chrome pour scraper Google Maps.

À noter que pour faciliter un peu le processus, il y aura quelques formules à insérer dans notre workflow, dans notre scrapper, tout ceci pour une question de précision. Et ces formules sont plus communément ce qu'on appelle des XPath.

Configuration du Scrapper

La première chose à faire c'est d'activer le mode navigation pour accepter les cookies ou les refuser, de telle sorte que l'on aura accès aux visuels du site. Maintenant on va créer une boucle, une boucle qui va du coup cibler l'entièreté des départements - je crois qu'il y en a 101. Par défaut on va la mettre en variable liste.

À présent il va falloir faire une autre boucle, mais cette fois-ci ça va pas être une boucle pour les départements, ce sera une boucle pour les communes. Donc vous l'avez compris, le processus reste sensiblement le même. On va dire qu'on veut une boucle pour cibler les communes et normalement on devrait avoir 419 communes - on en avait combien initialement ? 419, donc on est bon.

Extraction et Nettoyage des Données

À présent on va extraire des données. On va extraire bien évidemment le nom de la commune parce que ça on en aura absolument besoin. On va également extraire le code postal - ça ce n'est pas obligatoire, c'est plus pour un souci de vérification manuelle.

Bien évidemment c'est pas assez précis, on va devoir nettoyer les données que ce soit du côté des communes ou du côté des codes postaux. Par exemple pour les communes, vous voyez qu'à chaque fois il y a marqué le mot "commune" avant et ça j'ai pas envie de le voir, j'ai envie de le supprimer.

Je vais faire un nettoyage de données, un clean data, et on va remplacer le mot commune par rien - en d'autres termes on va le supprimer.

Temps d'Exécution et Résultats

Tout ce qui reste à faire c'est de rajouter certains temps d'attentes pour fluidifier le scrapper. Une fois que c'est fait, je vais pouvoir sauvegarder mon workflow et cliquer sur run pour obtenir nos données.

On a à présent nos données. En termes de temps d'exécution, on est sur du 48 minutes si jamais vous avez choisi l'option sur le Cloud et sur du 1h05 si vous avez choisi la version locale. Bref, on a nos 36000 lignes et des brouettes.

Au final vous allez obtenir quelque chose comme ça, mais il y aura une première anomalie entre guillemets : c'est que vous allez avoir deux fichiers et non pas un seul. En réalité c'est parce que vous ne pouvez pas avoir plus de 20 000 lignes sur le même fichier Excel ou CSV.

Le Problème des Keywords

Mais encore plus, c'est que nos fichiers ils ne sont pas terminés en tant que tel parce qu'on l'a dit, nous ce qu'on recherche ce sont les keywords et pas uniquement les noms des communes. Donc on ne veut pas obtenir "Belley", on va obtenir "restaurant à proximité de Belley".

Donc on va devoir notamment rajouter un préfixe, mais avant ça on va évidemment devoir supprimer les doublons et fusionner les deux fichiers entre autres.

Utilisation de Python Pandas

Donc tout ça ça peut évidemment être fait sur Excel, mais Excel j'aime pas trop ça, du coup j'ai plutôt utilisé la librairie pandas de Python. On va devoir simplement écrire les lignes de code qui vont nous permettre de modifier nos fichiers.

📖 Pour approfondir : Consultez notre guide complet sur le scraping Google Maps avec Python et Selenium pour une approche plus technique.

Pour ce faire j'ai créé au préalable un environnement virtuel et on va utiliser deux librairies spécifiquement à savoir pandas ainsi que openpyxl qui va nous aider à manipuler les fichiers Excel.

Une fois qu'on a ça, une fois qu'on a nos keywords, on a dit que l'idée c'est de les insérer les uns à la suite des autres et par la suite d'extraire les données. Ça c'est quelque chose que l'on va faire via un template.

Extraction avec Octoparse

Je vais utiliser un template Octoparse pour faire ça. Là vous allez insérer un page size, c'est à dire grosso modo le nombre de données maximum que vous souhaitez avoir - donc on peut mettre 1000 - et vous allez insérer vos keywords.

La chose qui est vraiment pénible c'est que vous êtes limité à 10000, donc faudra faire 10000 par 10000. En d'autres termes, si vous en avez 33000, il va falloir créer quatre tâches comme ça.

Quelques instants plus tard - pour être plus exact quelques jours plus tard parce que ça a pris jusqu'à deux jours et 15 heures - on a nos données. Nous avons exclusivement des données qui apparaissent sur Google Maps, donc sur les fiches Google Maps. On a du coup pas d'enrichissement, pas d'adresse email et pas d'autres informations complémentaires.

Les Limites de la Méthode Débrouille

Si on jette un coup d'œil un petit peu plus attentif, il y a quelque chose qui me dérange ici et c'est au niveau des horaires d'ouverture. On a une colonne horaires d'ouverture mais en réalité on a qu'une seule horaire d'ouverture qui correspond en réalité à la première ligne qui est notée sur la fiche Google Maps et non pas à l'entièreté de la grille.

Avouez, vous avez cru que c'était terminé mais non, pas totalement ! Parce que certes on a réussi à supprimer les doublons par tranche de 10000 keywords, mais on n'a pas supprimé l'entièreté des doublons lorsque l'on regroupe les quatre fichiers en un.

C'est la raison pour laquelle il va de nouveau falloir concaténer les quatre fichiers en un seul et par la suite on va supprimer les doublons, mais à vrai dire on va supprimer ces doublons non pas sur l'entièreté des colonnes mais uniquement sur deux colonnes spécifiques à savoir le nom du restaurant ainsi que la localisation.

Résultats Finaux de la Méthode Débrouille

Juste pour le fun, si jamais on regarde le fichier final, vous voyez qu'on a 68389 lignes et si on enlève les doublons on devrait avoir quelque chose comme 52 658 lignes et on a 7 colonnes. Ces colonnes qui correspondent respectivement à la catégorie, au titre, à la note, au nombre d'avis, à la localisation, les horaires d'ouverture et le téléphone.

52000 x 7 ça fait à peu près 365000 cellules dans ces eaux là. Enfin vous sauvegardez votre résultat dans un fichier Excel et voici ce que ça devrait vous donner.

La Solution Scrap.io : Google Maps Scraper Sans Compétences Techniques

Maintenant on va voir ce que ça donne avec la solution scrap.io pour extraire données google maps. Vous vous souvenez, on avait dit au début que cette méthode pouvait permettre de scraper Google Maps sans avoir de compétences techniques, sans devoir installer un logiciel, sans devoir écrire une seule ligne de code que ce soit via pandas ou autre. En bref, sans devoir supprimer des doublons et sans devoir créer la structure du scraper.

Mais alors qu'est-ce que donne cette solution en termes de résultats et qu'est-ce que vous pouvez en espérer avec un google maps scraper professionnel ?

Résultats Spectaculaires

Voici le résultat final en Excel d'un scraping de restaurant sur la France entière. On avait via la première méthode quelque chose comme 52000 lignes et ici on en a une bagatelle de 139170 ! Et en termes de colonnes, on en avait 7 auparavant et là on en a très précisément 44.

Ce qui donne si on fait une multiplication basique 139170 x 44... ça doit donner 5 millions 600 000, peut-être 6 millions de cellules au total !

Comment Utiliser Scrap.io

Mais avant qu'on s'attarde sur le résultat final, on va un peu se pencher sur comment l'obtenir. Ce que vous devez faire c'est aller sur scrap.io - écrit comme ça, on ne peut pas faire plus simple - et vous avez un aperçu de la facilité avec laquelle vous allez extraire vos données.

Vous devez simplement insérer une activité, donc une catégorie. Nous avions parlé de restaurant il me semble. Je clique sur restaurant, je clique sur une ville par exemple Paris et puis je vais faire un simple "rechercher". Si je scrolle un petit peu, on me dit qu'il y a 9 116 leads.

Mais vous allez très certainement me rétorquer que là on n'a pas fait un scraping sur une ville mais on a fait un scrapping sur un pays entier. Mais ça aussi c'est prévu !

Fonctionnalités Avancées

Tout ce que vous devez faire c'est cliquer sur "Se connecter" et vous avez par la suite la possibilité de vous créer un compte. Une fois que vous avez créé un compte, vous aurez accès à votre tableau de bord.

Voici à quoi ça va ressembler : c'est exactement la même chose sauf que vous avez plus de filtres. Vous pouvez cibler des restaurants à l'échelle d'une ville comme on l'a fait avec Paris, mais également à l'échelle d'un département, ça peut également être à l'échelle d'une région, ou ça peut être à l'échelle d'un pays entier.

Donc là on a pris l'exemple de la France, mais croyez-moi des pays c'est pas ce qui manque ! Par la suite vous faites un simple "rechercher" et on vous dit qu'il y a environ 140 000 résultats alors qu'on en avait eu 52000 pour la première méthode.

Pourquoi "Méthode Débrouille" ?

Ces raisons pour laquelle on l'appelait la méthode débrouille, c'est parce qu'on peut certes se débrouiller pour avoir quelque chose le plus exhaustif possible, mais jamais on atteindra l'exhaustivité.

⚖️ Important : Avant de commencer tout projet de scraping, consultez notre guide sur les risques et bonnes pratiques du scraping Google Maps et vérifiez la légalité du scraping Google Maps.

Système de Filtrage Avancé

Après, libre à vous de ne pas sélectionner toutes les données parce que ces données vous pouvez les filtrer également. Je peux cliquer sur "Filtrer" et je vais me dire : est-ce que je souhaite les restaurants qui sont fermés ? Bah non, je ne souhaite peut-être pas les restaurants qui sont fermés.

Est-ce que je souhaite les restaurants qui ont un site internet ? En fonction de ce que vous voulez leur proposer, oui ou non. Est-ce qu'ils ont un téléphone ? Est-ce qu'ils ont une adresse email ? Est-ce que je recherche des liens vers des réseaux sociaux et si oui lesquels ? Facebook, Instagram, YouTube, Twitter, LinkedIn.

Peut-être que je recherche également une gamme de prix parce qu'on va pas traiter de la même manière un restaurant McDo et un restaurant de Cyril Lignac. Peut-être en terme de note parce qu'il y a des restaurants qui se font descendre, mais au-delà de 4 étoiles sur 5 c'est quand même très honorable.

Peut-être en terme du nombre d'avis : si vous avez 5 avis c'est pas la même chose que si vous en avez 500. En termes du nombre de photos également, cela peut donner une indication sur l'effort qu'a mis le restaurant pour soigner son image.

Formulaires de Contact et Pixels Publicitaires

Est-ce qu'il y a un formulaire de contact présent sur le site internet ? Ça c'est vachement utile parce qu'à l'inverse d'une adresse email, un formulaire de contact a normalement une délivrabilité de 100%.

Et qu'en est-il des pixels publicitaires ? Une fois que vous avez les filtres que vous souhaitez, il ne vous reste plus qu'à exporter vos données.

Richesse des Données Obtenues

Penchons-nous un petit peu plus sur ce qu'on obtient. On a le nom du restaurant, on a si le restaurant est fermé ou non, on a le type principal et tous les types - donc grosso modo la catégorie principale et les catégories annexes.

On a le site internet qui était une information que l'on n'avait pas eue précédemment et qui est une information capitale parce que c'est à partir de ce site internet que l'on va pouvoir faire de l'enrichissement. C'est-à-dire que l'on va visiter le site internet pour récolter tout type d'informations, notamment les informations liées au SEO mais également à d'autres moyens de prospection - je pense notamment à l'adresse email ou aux réseaux sociaux.

Données Géographiques Détaillées

On a du coup le site internet et la page d'accueil, on a le numéro de téléphone, on a l'adresse complète et on a également l'adresse complète subdivisée. Dans notre première méthode on avait uniquement l'adresse complète sans filtre, mais là on va pouvoir filtrer sur l'adresse tout simplement, également sur la ville, sur le code postal ou sur le département, sur la région, etc.

On a également les coordonnées, la longitude et la latitude, on a l'URL plus spécifiquement l'URL de la fiche Google Maps, le nom du propriétaire.

Emails et Réseaux Sociaux

L'adresse email - alors en réalité je vous ai menti, on devrait plutôt parler d'adresses email parce que lorsqu'il y en a plusieurs elles sont également notées. Je vous avais parlé également de réseaux sociaux, les voici : s'il y a un lien Facebook il est noté, s'il y a une chaîne YouTube elle est notée également, Twitter, Instagram, LinkedIn.

Données d'Engagement

La gamme de prix, les avis et le nombre d'avis et le nombre d'avis par notes, qui encore une fois est une information supplémentaire que l'on n'avait pas eue précédemment. On peut du coup voir qu'il y a 346 personnes qui ont eu une très mauvaise expérience dans ce restaurant.

Le nombre de photos, l'URL de quelques photos qui sont répertoriées dans une autre colonne. À la fin on a les horaires d'ouverture et voici l'entièreté des horaires d'ouverture et pas uniquement l'horaire d'ouverture d'aujourd'hui.

Si la fiche est revendiquée sur Google Maps, on a également d'autres caractéristiques - alors ça de mémoire c'est ce qui est affiché sur la fiche Google Maps.

Données SEO et Techniques

Le titre de site - donc ça y est on rentre un petit peu dans des caractéristiques de SEO. Les meta keywords - lorsqu'il y en a pas, il y a aucun souci, ça peut être une superbe opportunité pour proposer des services dans ce sens.

La meta description, le meta generator, la langue du site, les autres emails comme prévu - jusqu'à 5 en réalité, jusqu'à plus en fait, lorsqu'il y en a plus ils sont notés ici.

Et les pages de contact - on l'a dit, le principal avantage des pages de contact c'est principalement la délivrabilité. Également tous les liens Facebook, YouTube, Twitter, Instagram, LinkedIn lorsqu'ils sont présents, lorsqu'il y en a plusieurs.

Technologies et Pixels

Les technologies du site - on sait par exemple que cette personne utilise un reCAPTCHA, on sait qu'elle utilise Elementor qui est disponible sur WordPress de mémoire. Ici on a du e-commerce, etc. Ainsi que pour terminer les pixels publicitaires.

Voici pour un petit tour d'horizon de ce que vous pouvez accomplir avec Scrap.io.

🚀 Automatisation : Pour aller plus loin, découvrez comment automatiser vos extractions Google Maps avec Make.com et transformer automatiquement vos données en opportunités commerciales.

FAQ : Questions Fréquentes sur le Scraping Google Maps

Combien de temps faut-il pour scraper Google Maps sur un pays entier ?

Avec la méthode manuelle (Python + Octopars), il faut compter 2 jours et 15 heures pour extraire environ 52 000 restaurants. Avec Scrap.io, l'extraction de 139 000+ établissements se fait en quelques minutes seulement.

Quelle est la différence entre le scraping manuel et Scrap.io ?

Le scraping manuel avec Python nécessite des compétences techniques, du temps de développement et donne des résultats limités (7 colonnes). Scrap.io offre une interface simple, 44 colonnes de données enrichies et aucune compétence technique requise.

Est-il légal de scraper Google Maps avec Scrap.io ?

Oui, Scrap.io respecte les conditions d'utilisation de Google et ne collecte que des données publiques. La plateforme est conforme au RGPD et autorisée pour un usage commercial.

Puis-je automatiser mes extractions Google Maps ?

Absolument ! Scrap.io propose une API complète et une intégration native avec Make.com pour automatiser vos processus d'extraction et d'enrichissement de données.

Combien coûte l'extraction d'un pays entier sur Scrap.io ?

Pour extraire 139 000 établissements comme dans notre exemple, vous aurez besoin du plan Company à 499€/mois (100 000 crédits). Alternative : utilisez l'essai gratuit 7 jours puis passez sur un plan adapté.

Quels types de données puis-je extraire avec Scrap.io ?

Scrap.io extrait 44 colonnes de données : coordonnées, emails, téléphones, réseaux sociaux, horaires complets, avis détaillés, technologies de sites web, pixels publicitaires, et bien plus.

Comment éviter les blocages lors du scraping Google Maps ?

Scrap.io gère automatiquement les limitations techniques avec une infrastructure professionnelle capable de 5 000 requêtes par minute. Plus besoin de s'inquiéter des blocages ou des captchas.

Puis-je essayer Scrap.io gratuitement ?

Oui ! Scrap.io offre un essai gratuit de 7 jours avec 50 recherches et 100 crédits d'export. Parfait pour tester la qualité des données avant de vous engager.

Conclusion

C'est la fin de cette présentation complète sur comment scraper Google Maps à grande échelle. J'espère que vous avez maintenant une vision claire des deux approches possibles.

La méthode débrouille avec Python, Pandas et Octopars peut fonctionner pour des projets ponctuels, mais elle présente de nombreuses limitations :

  • Temps de développement considérable (plusieurs jours)
  • Compétences techniques requises
  • Résultats limités (52 000 lignes avec 7 colonnes seulement)
  • Maintenance constante nécessaire

Scrap.io s'impose comme LA solution professionnelle pour extraire données Google Maps :

  • Simplicité : Interface intuitive, aucune compétence technique requise
  • Performance : 139 000+ lignes avec 44 colonnes de données enrichies
  • Efficacité : 2 clics pour un pays entier vs plusieurs jours de développement
  • Fiabilité : Infrastructure professionnelle qui évite tous les blocages

Avec 200 millions d'établissements indexés et une capacité de 5 000 requêtes par minute, scrap.io est la seule solution qui permet d'extraire toutes les fiches Google Maps à l'échelle d'un pays entier sans aucune compétence technique.

Pour faciliter vos extractions, n'oubliez pas d'installer l'extension Chrome gratuite Maps Connect qui affiche directement les emails et réseaux sociaux sur Google Maps.

Prêt à générer des prospects depuis Google Maps?

Essayez Scrap.io gratuitement pendant 7 jours.