Derniers Articles
AEO/GEO avec HubSpot : De la stratégie à l’exécution L’Apéro Parisien SEO & IA est de retour le 14 avril 2026 ! Universal Commerce Protocol (UCP) : Google annonce de nouvelles fonctionnalités GEO : où en est-on début 2026 ? Abondance organise un webinar de retours terrain Google prépare une option pour exclure son contenu des résultats IA dans Search Mistral frappe fort : nouveau modèle, alliance avec NVIDIA et agent de preuve formelle Audit technique SEO : les 3 analyses sous-cotées Goossips SEO : Désaveu de TLD & limites de crawl L’édition de mars 2026 de Réacteur est disponible ! Google lance des guides pratiques pour optimiser votre fiche Google Business ProfileLire l'article complet : Discover Core Update 2026 : personnalisation locale confirmée, consolidation des publishers et montée de X dans les feeds
Publié le 24/02/2026 à 07:22:00 par Neper
Discover Core Update 2026 : personnalisation locale confirmée, consolidation des publishers et montée de X dans les feeds
Le 5 février 2026, Google a fait quelque chose d’inédit : lancer une core update (mise à jour majeure de l’algorithme) ciblant exclusivement Google Discover, son flux de contenus personnalisés disponible dans l’application Google et sur la page d’accueil de Chrome mobile. C’est la première fois dans l’histoire des core updates qu’un déploiement est délibérément cloisonné à Discover, sans toucher aux résultats du Search classique. Le signal est fort : Google traite désormais Discover comme un environnement de classement à part entière, avec ses propres critères, sa propre logique, et ses propres gagnants.
Trois objectifs sont annoncés officiellement : davantage de contenu localement pertinent issu de sites du pays de l’utilisateur, moins de contenu sensationnel et de clickbait, et davantage de contenus approfondis, originaux et actuels provenant de sites reconnus comme experts sur leurs sujets. Une semaine après le début du déploiement, NewzDash — éditeur d’un outil de suivi SEO spécialisé news et Discover — a publié une analyse de données basée sur son panel d’utilisateurs. L’étude est l’une des plus solides techniquement parues à ce stade. Elle mérite d’être lue. Elle mérite aussi d’être challengée. (le lien vers l’étude est à la fin de l’artlcle).
Ce que NewzDash a mesuré : la méthodologie en détail
Avant d’analyser les résultats, il faut comprendre le dispositif. NewzDash compare deux fenêtres de sept jours : pré-update (25-31 janvier 2026) et post-update (8-14 février 2026), à partir de son panel de données de millions d’utilisateurs américains réels. Les exports couvrent quatre jeux de données : le US Top 1000 domains, et les Top 1000 articles respectivement pour les États-Unis, la Californie et New York.
Le Discover Visibility Score utilisé comme métrique centrale est un score relatif : l’élément le plus performant de chaque liste reçoit 100 points, et tous les autres sont calibrés proportionnellement. Pour les domaines, des scores normalisés sont utilisés pour rendre les deux fenêtres comparables. La plateforme précise que son panel est « un signal fort pour détecter des changements de distribution dans le temps », mais qu’il reste un échantillon — non une mesure absolue de l’écosystème Discover dans son intégralité.
Objectif 1 — contenu local : les données les plus solides
Sur le volet de la pertinence locale, l’étude produit ses résultats les plus convaincants.
Au niveau des domaines (US Top 1000, normalisé), la part internationale dans le score total passe de 8,52% à 7,04%, pendant que la part américaine progresse de 88,86% à 89,94%. Compte tenu des biais de l’étude, ce changement est sur l’épaisseur du trait et il est difficile d’en tirer de vraies conclusions.
Mais c’est au niveau des feeds régionaux que l’analyse est la plus probante. Les articles d’origine californienne dans le Top 100 du feed californien passent de 10 à 16 (+60%), et de 36 à 49 dans le Top 1000 complet (+36%). Plus significatif encore : le tableau croisé entre les feeds montre que les domaines locaux new-yorkais apparaissent environ 5 fois plus dans le feed NY que dans le feed californien, et inversement pour les domaines locaux californiens. Ce ratio est la démonstration empirique la plus solide de l’étude, quasi irréfutable comme preuve d’une personnalisation géographique sub-nationale effective.
Objectif 2 — réduction du clickbait : une méthodologie fondamentalement limitée
C’est le volet le plus honnêtement présenté dans l’étude, et c’est précisément pour cette raison que ses limites méritent d’être exposées clairement. NewzDash utilise deux proxies pour mesurer la réduction du clickbait (contenu conçu pour générer des clics en utilisant des titres trompeurs ou volontairement vagues) :
- Des marqueurs textuels dans les titres (« shocking », « revealed », « you won’t believe », ponctuation excessive…)
- Des indicateurs de structure : longueur moyenne des titres, proportion de titres interrogatifs, ratio contenus éditoriaux / contenus sociaux
Les...