Dans le monde du SEO, la Google Search Console est la petite boîte à outil du quotidien. Chez hyffen elle est évidemment utilisée par toute l’équipe, et sans surprise sur les besoins d’analyses et de reporting avec le rapport de performance. Ce même rapport qui impose des limites qu’il faut connaître (et surtout contourner).
C’est le sujet qu’a exploré Paul Jeanmougin, Consultant SEO & data chez hyffen.

Un outil à la mémoire courte
La première des limites et pas des moindres : seulement 16 mois d’historique ! Et oui, si vous n’avez pris aucune mesure, pas moyen d’accéder aux données d’il y a 2 ans. Imaginez vous le scénario. Nous sommes début janvier, (bonne année si c’est le cas réellement) et vous souhaitez comparer les performances de l’année qui vient de se terminer à la précédente. Et bien vous ne pouvez pas à cause de la limite des 16 derniers mois glissants.
C'est décidé, vous allez historiser les données dès maintenant afin de ne pas vous faire avoir l’an prochain. Mais alors qu’est-ce qu’on exporte ?

Exporter ses données : vos options
Vous commencez par vous dire que la solution est plutôt triviale : à partir d'aujourd'hui, vous ferez un export depuis l’interface en début de mois pour conserver ces précieuses données. Vous téléchargez le fichier excel, double clic, ouverture, et là : 7 onglets !
Un outil à dimension N > 3

Vous regardez les données, le mot-clé a autant de clics que l’interface, ça a l’air pas mal ! Et puis après inspection plus minutieuse, vous vous rendez compte d’un problème :
- Il n’y a que les 1000 premières requêtes ? mais sur 16 mois j’ai bien plus que 1000 requêtes !
- La somme des clics et des impressions du fichier n’est pas la même que sur l’UI (interface utilisateur) ?
- Il n’y a que les 1000 premières pages ? l’indexation indique pourtant plus de 9000 pages !
- Comment est-ce que je croise mes données pour ne regarder que les performances en France sur desktop ?
- Est-ce que je dois filtrer via l’interface et refaire un export ? Et ce pour chaque combinaison de dimensions ?
Vous l’avez compris, ce fichier n’est qu’un échantillon. L’export de l’interface est utile pour éviter les copier coller, ou bien les analyses rapides mais il atteint des limites dès qu’il faut du détail.
Utiliser l’API : plus facile qu’il n’y paraît
C’est là que vient l’API, qui est un moyen de communiquer via du code avec la GSC et lui en demander plus.
Nous n’entrerons pas dans le détail du code ici, fournissez la documentation à votre développeur préféré : https://developers.google.com/webmaster-tools. Ou bien utilisez l’excellente extension Search Analytics for Sheets disponible ici.
L’API est une bonne approche pour avoir un peu plus d’exhaustivité (si on ignore les données anonymisées) dans les analyses. Avec l’utilisation de code, faire de multiples exports devient bien moins chronophage. Vous avez la possibilité d’exporter la dimension des requêtes avec celle des pages pour faire un combo permettant de suivre votre mot-clé phare avec plus de précision.
Suivre sur le temps les évolutions, régressions et autres joyeusetés devient bien plus aisé. Et le plan de redirection pour la migration de cet e-commerce avec 10k pages devient moins fastidieux.
A savoir, depuis très récemment il est possible d’avoir une ventilation des performances par heure des 10 derniers jours glissants. Intéressant pour obtenir quelques insights supplémentaires sur votre audience search ou Discover.
Petite astuce : Si vous ne savez pas coder et voulez rapidement obtenir des informations sur plus de 1000 pages, requêtes ou combinaison de plusieurs dimensions, pensez à Looker Studio. Le connecteur consacré est très facile à manipuler et constitue une solide première approche.

Chez hyffen l’API est l’une de nos approches. Cela nous permet d’exporter les données sur de multiples dimensions, pour plein de cas d’usages. Fini les 16 mois glissants. Quel plaisir de retrouver des données iso avec ce que l’on peut retrouver sur l’interface. L’un de nos projets a un historique régulier depuis 2015 !
Notre outil interne de gestion de projet permet de lier une action à une page ou une requête suivie. Les données API exportées permettent de tracker les évolutions, positives ou négatives par rapport à une tâche horodatée.
Avec malheureusement encore des limites
Mais voilà. Il y a encore une limite.

Cette fois-ci c'est votre Google Sheet ou Excel qui ne répond plus. Vous avez voulu importer un CSV à première vue simple, seulement 4 colonnes. Seulement 100 000 lignes. Mais dès la première formule avec plus de 3 lettres c’est le crash.

Alors une nouvelle fois vient le temps de chercher une nouvelle solution.
Trouver une forme d’exhaustivité : le connecteur natif BigQuery.
Cette solution c’est le graal. C’est un export proposé directement par Google sur son outil de data warehouse “BigQuery” lui-même intégré à sa suite logiciel GCP pour “Google Cloud Platform”. Ce connecteur est donc “natif” car il n’y a pas besoin d’autres intermédiaires (que Google) pour accéder à vos données.
Cependant, cet export implique de s’intéresser à la plateforme et son fonctionnement. Enfin, une dernière étape : un peu d’intérêt pour le SQL. C’est un outil important qui devient quasi indispensable dès qu’un site atteint une volumétrie critique de pages.

Vous trouverez plein de tutoriels et de documentations (celle de Google par exemple) pour mettre en place l’export.
Le SQL est un langage de programmation, littéralement appelé Search Query Language, “langage de requêtes structurées” (s/o wikipédia). On peut requêter plusieurs millions de lignes en quelques secondes. Alors prenez garde, et faites attention à la facturation surtout si vous avez un très gros site avec plusieurs dizaines de milliers de pages.
SI vous n’êtes pas à l’aise, on vous conseille de débuter avec l’excellent site ga4sql.com :

Les usages de la Search Console sur une stack BigQuery
Cet export regorge de colonnes sur le type d’affichage de résultat. Il propose par exemple une dimension pour filtrer les requêtes anonymisées et bien d’autres points de données utiles.
Nous n’allons pas détailler, si vous êtes curieux c’est ici qu’il faut regarder.
- is_[search_appearance_type]: There are several boolean fields used to indicate search appearance type, such as is_amp_top_stories, is_job_listing, and is_job_details. A field will be true if the row in question appears for the specific rich result.
Chez hyffen c’est l’export que l’on préfère : plus de données, moins de maintenance côté code et plus accessible pour tous.
Comment ça plus accessible, c’est du code non ? Le cas Connected Sheet
Vous avez bien entendu : les données sont bien plus accessibles qu’il n’y paraît. En fait, l’un des logiciels sur lesquels les SEO travaillent au quotidien peut accueillir ces données. Si vous êtes à l’aise avec Google sheet, alors les feuilles connectées sont faites pour vous (source Google).

En quelques clics, insérer directement votre base de données connectée ou écrivez une requête SQL.

Encore une fois, faites attention à la facturation et à la récurrence du rafraîchissement des données
Si vous avez déjà fait des TCD, alors vous savez utiliser les données BigQuery. Chez hyffen on aime beaucoup car cela apporte souplesse et exhaustivité. Le combo parfait pour obtenir des angles d’analyses intéressants pour créer et exploiter des opportunités jusque-là compliquées à trouver. GCP et ses outils permettent une transformation des données brut facile pour créer des tables en sur-mesure. Le format Sheet permet la création de tables connectées sur Slides pour remonter des indicateurs sur un format mensuel. Enfin, Looker Studio peut apporter rapidité et souplesse pour tracer de belles courbes.
Quelques cas d’études intéressants :
- Suivre l’évolution du cumul de requêtes hors marque distinctes par mois
- Calculer pour un mot-clé une position moyenne sur les 7 derniers jours glissants
- Échantillonner la distribution des CTR par type de mot-clé
- Utiliser ARIMA pour du forecasting basique
- … comparer des indicateurs entre 2 années : notre problème de départ est résolu !
Pour aller plus loin avec les données de la GSC sur BigQuery
Chez hyffen nous aimons proposer la réconciliation des données GSC avec une source supplémentaire comme un outil de tracking de position. Il est alors possible de contextualiser un mot-clé avec sa SERP. Et oui, si votre CTR en position #1 baisse du jour au lendemain, ce n’est pas à cause de votre title.
Le pack local ou des ads Shopping peuvent prendre le pas sur votre visibilité. Tout en occupant la première position, votre localisation sur la SERP se retrouve quand même dégradée. Le point de visibilité entre la boîte de recherche et le premier résultat organique s’est agrandi. Cet écart est même mesurable avec la position pixel de Myposeo, ou encore le pixel ranking de DataforSEO.

C’est un début de mesure de votre visibilité en pensant typologie de la SERP et les types de résultats présents et non pas simplement mot-clé. Les SERPs mobile et desktop sont peut-être très différentes. Vous avez besoin de voir les présences ou non de featured snippet, pack local en fonction du device, ou localisation par exemple.
Alors il est possible de comprendre ce qu’il se passe. Puis intégrer progressivement les classiques catégorisation de mots-clés : certains vont provoquer de manière consistante des affichages précis associés à une distribution de CTR par position précis.
C’est typiquement un facteur non négligeable dans la priorisation de votre SEO. En fonction de vos enjeux business, vous pouvez déterminer s’il faut se concentrer sur cette verticale ou regarder ailleurs.
Pour aller encore plus loin avec l’association de sources de données : un crawler ou de l’IA par exemple ! Il n’y a ensuite pas de limites concrètes si ce n’est l’imagination : Gemini, Claude, ChatGPT, de l’analytics avec GA4, informations CRM, connaissances métier, tendances, Trends, Suggest, du Google ads, de l’audience avec Meta, etc.
Conclusion
Le sujet de l’historisation et de l'exportation des données de la GSC peut-être une corvée ou une simple formalité. Notre avis est d’exporter dès que possible les 16 derniers mois de données avec l’API (ou quelconque moyen à votre portée). L’étape suivante est d’activer l’export natif via BigQuery.
Vous aurez après le temps de réfléchir à une stratégie pour réconcilier les deux sources de données. C’est un sujet à part entière, un peu technique, et qui demande quelques bases en manipulation de données.
Chez hyffen, l’export BigQuery est notre préférence : plus de données, moins de maintenance côté code et plus accessible pour tous.
Notre conseil est de mettre en place des PoC. Vous vous assurez que l’information est exploitable et exploitée par les équipes avant de se lancer sur des chantiers à plus grande échelle. Il faut souvent interpréter la donnée avec un regard critique et comme indicatif d’une tendance plutôt qu’une vérité absolue.