L’édition 2024 du SMX Paris s’est tenue le 14 et 15 Mars 2024.
Laurent Rignault – CEO de l’agence EXPERTISME – en tant que Membre du Comité de Pilotage et Modérateur depuis 13 ans du Cycle SEO de SMX Paris, LA Série de Conférences en Référencement (Search Marketing), la plus importante au monde qui présente les meilleurs experts en matière de référencement ;vous propose un compte rendu de ces 2 jours de conférences.
Réputée comme étant l’événement incontournable pour les professionnels du Search Marketing (Référencement Naturel, Référencement Payant et Social Média), cette conférence se tenant à Paris attire chaque année des experts, des agences, des marques, des responsables SEO ou SEA chez des annonceurs, et des férus du SEO du monde entier, qui viennent partager leurs connaissances et leurs expériences sur les dernières tendances et innovations dans le domaine du Search Marketing.
Le SMX Paris propose comme tous les ans un programme sur 2 jours, riche et diversifié, avec des sessions animées par des intervenants reconnus.
Les participants y découvrent des études de cas, des stratégies éprouvées, et des insights précieux sur des sujets variés comme le SEO, le SEA, le marketing de contenu, l’analyse de données, l’intelligence artificielle et bien plus.
Le SMX Paris est aussi une excellente occasion de networker, offrant aux professionnels la possibilité de rencontrer des pairs, d’échanger avec des experts du secteur, et de nouer des partenariats stratégiques.
Vous découvrirez dans ce compte rendu de la 1ere journée un résumé des différentes conférences du cycle SEO.
Dans les rouages d’une licorne française : Processus Fusion de sites et Vision e-commerce SEO
Jean-Eric Blas Chatelain (Global Head of SEO, Vestiaire Collective) et Benoit Demonchaux (Co-Founder, Consultant SEO, SLASHR) ont abordé dans cette conférence la fusion SEO à la suite de l’acquisition de Tradesy, une plateforme américaine spécialisée dans le luxe de seconde main, par Vestiaire Collective, comment ils ont orchestré la stratégie de fusion et de migration de plusieurs centaines de milliers de pages a rediriger vers le site US de Vestiaire Collective et cela dans un délai de 6 mois.
La migration impliquait des défis tels que le volume élevé de pages à rediriger et la nature éphémère des pages produits.
Dans le cadre de cette fusion, Ils ont dû gérer le transfert d’autorité SEO et s’assurer que les clients de Tradesy ne se perdent pas durant la migration. La priorisation des pages s’est basée sur l’importance, le trafic et la génération de revenus.
Différentes méthodes de redirection ont été employées en fonction de l’effort requis et de la précision nécessaire. Les correspondances ID, les mots-clés positionnés, et le fil d’Ariane ont été utilisés pour une migration efficace.
La migration a été réalisée progressivement avec environ 800 000 pages redirigées. Ce processus a permis de doubler la couverture de mots-clés et le trafic pour le site américain de Vestiaire Collective.
En conclusion, la fusion SEO entre Tradesy et Vestiaire Collective a été un projet complexe et stratégique qui a nécessité une planification minutieuse, une collaboration efficace entre les équipes, et l’utilisation innovante de différentes méthodes de redirection pour assurer le succès de la migration.
Comment passer de la productivité SEO au niveau supérieur grâce à l’IA
Animée par Franck Mairot (Responsable R&D, AWI). Cette session était un appel à intégrer l’IA de manière stratégique pour booster la productivité SEO sans sacrifier la qualité. Cette conférence a permis d’explorer différentes manières d’automatiser les processus SEO pour gagner en efficacité et en performance.
Franck a présenté des techniques d’automatisation de petites tâches quotidiennes, de tâches intermédiaires, et de projets plus complexes en utilisant l’IA. Il a profité de cette présentation pour rappeler l’importance de la légalité du scrapping de données et a mis en avant que l’utilisation des données collectées doit être licite et respectueuse des lois en vigueur. Franck a ensuite exposé une méthode pour automatiser les études de mots-clés, incluant l’exportation des mots-clés et des concurrents, la catégorisation, et la suppression des mots-clés non pertinents. Des outils comme Chat GPT ou BERT de Facebook sont recommandés pour affiner ces analyses.
Ont été également présentés durant cette conférence :
- Une approche pour automatiser la création de briefs SEO, en prenant en compte l’analyse de la SERP, les éléments de branding, et le vocabulaire pertinent. L’idée est de produire des briefs qui soient à la fois informatifs et alignés sur les objectifs de marque.
- L’optimisation de la création automatisée de fiches produits à partir de données techniques fournies par des catalogues fournisseurs. Cette section souligne l’importance de nettoyer et vérifier les données pour assurer la cohérence et l’exactitude du contenu généré.
La présentation se termine sur l’importance de tester différents modèles d’IA et de surmonter les limites des outils no code. Il encourage l’utilisation de FastAPI pour développer des APIs personnalisées et l’intégration de différents outils pour améliorer l’analyse de données.
Comment conquérir un nouveau marché en développant l’autorité sémantique et thématique de son site.
Mikael Priol (Fondateur, Netlinking.fr) insiste sur l’importance de construire une autorité thématique et sémantique à travers un contenu de qualité et une stratégie de netlinking intelligente. Il souligne l’importance de construire une autorité à la fois thématique et sémantique, en utilisant un graphique des liens et des “seed pages” pour démontrer comment le Trust Flow et le Topical PageRank peuvent évaluer l’autorité d’un site.
Il a également expliqué le concept de l’autorité sémantique qu’i faut considérer comme un indicateur clé pour évaluer la pertinence et la qualité des contenus d’un site en lien avec son domaine thématique.
Durant cette conférence Mikael a illustré son approche avec une Étude de cas sur le site France Minéraux qui a vu une croissance significative de son trafic, passant de 1 000 visiteurs par jour en 2018 à entre 1 000 et 10 000 visiteurs après avoir élargi son contenu vers des thématiques comme la voyance et l’astrologie. Pour réussir cela il a mis en place une stratégie de contenus impliquant la production de 400 contenus de 1500 mots par mois pour renforcer cette autorité.
Enfin, il rappelle que pour obtenir un SEO performant il est très important de définir une stratégie claire, la mise en œuvre d’un mapping de contenus pour cibler efficacement les personas et les étapes du parcours client. Il met en évidence la nécessité de construire un profil de liens équilibré, avec une attention particulière à la profondeur du crawl et à la perte de “jus” SEO due à une mauvaise structure de liens.
Décryptage de l’évolution des algorithmes de Google : quels impacts sur le référencement des sites web
Aurélien Delefosse (Consultant en référencement, E-Influence) et Mathieu Gheerbrant (Co-fondateur, SEO Hackers) ont mis en lumière les changements significatifs dans les algorithmes de Google et leur impact sur le référencement des sites web.
Parmi les principaux points abordés durant cette conférence ;
- Évolution avant 2009 : Les techniques de SEO étaient plus simples et le spam, comme le spam de livre d’or, était efficace. Google répond à ces pratiques par des mises à jour comme Google Florida en 2003 et l’introduction de l’attribut nofollow en 2005.
- Changements après 2010 : Google a promu massivement Chrome et a utilisé le tracking de clics dans les SERP pour améliorer le ranking des pages. L’apparition de Google Nexus et Google Pixel montre l’intégration entre le hardware et les services en ligne de Google.
- Observations récentes : Augmentation des tests A/B sur les SERP, une présence accrue de sites gouvernementaux dans les résultats, de nouvelles oneboxes avec des filtres, suppression de la pagination, et évolution des rich snippets.
- La valse des updates : Une augmentation significative des jours de déploiement d’updates par Google, avec une tendance vers une logique de topics, réduisant le nombre de facteurs de classement mais augmentant les signaux utilisés.
- E-E-A-T (Expérience, Expertise, Authoritativeness, Trustworthiness) : Accent sur la crédibilité et la qualité du contenu, soulignant l’importance de l’expérience, de l’autorité et de la fiabilité.
- Impact du Digital Markets Act (DMA) : Modifications significatives dans l’affichage des résultats, comme l’interdiction de l’ouverture directe de Google Maps depuis les résultats de recherche.
- Qualité et indexation : Problèmes d’indexation et désindexation, soulignant l’importance de la qualité du site et de la page.
- Signaux utilisateurs et SEO : Utilisation de données segmentées par localisation et type d’appareil pour mieux comprendre les intentions des utilisateurs et ajuster le SEO en conséquence.
Cette conférence montre que Google évolue vers une approche plus riche en données et en signaux pour déterminer la qualité et le ranking des pages, mettant en évidence l’importance d’adapter les stratégies SEO pour rester pertinent.
Google Discover : exploiter l’audience au maximum.
Cette conférence présentée par Virginie Clève, Consultante en stratégie digitale, de Largow dévoile les clés pour comprendre et maximiser la visibilité sur Google Discover,
Virginie partage ses connaissances sur l’évolution et les stratégies d’optimisation pour Google Discover. Elle a analysé le SEO des sites médias, notant un passage de la dominance de Google News à celle de Google Discover de 2016 à 2024, où Discover représente maintenant la majorité de l’audience SEO des médias.
Discover est décrit comme un service personnalisé sans requête spécifique, proposant du contenu éditorial varié, avec une forte influence sur les habitudes de lecture numérique. Pour maximiser la visibilité sur Discover, il est important de comprendre ses règles uniques :
- Les titres doivent être optimaux en longueur et en émotion, avec une suggestion de 50 à 109 caractères.
- Les images doivent être de grande qualité et suffisamment grandes, idéalement plus de 1200 pixels de large.
- Les contenus avec un bon E-E-A-T (Expérience, Expertise, Authoritativeness, Trustworthiness) sont favorisés.
- Le contenu payant peut bien performer s’il est de haute qualité et original.
- La longueur du contenu doit éviter d’être trop court, moins de 1200 signes, avec des variations selon le site et la thématique.
- La mise à jour des articles peut procurer un léger avantage de fraîcheur.
- Le CTR (Click Through Rate) optimal varie mais est un facteur clé dans la performance sur Discover.
- Les contenus peuvent être redécouverts et gagner de l’audience même après une longue période, battant l’idée d’une fenêtre d’indexation de 30 jours.
Virginie souligne que les contenus anxieux ou de hard news ont tendance à être moins présents sur Discover, qui privilégie les contenus alignés avec les intérêts et passions des utilisateurs. Les analyses montrent que la stratégie éditoriale et l’optimisation technique du site sont cruciales pour maximiser la visibilité et l’audience sur Discover.
IA et Search : les mentions seront-elles les nouveaux backlinks ?
La présentation par David Eichholtzer et Nicholas Vieuxloup de WAM se focalise sur l’impact de l’intelligence artificielle (IA) et des modèles de langage (LLMs) sur le SEO, notamment en ce qui concerne les mentions de marque comme potentiels successeurs des backlinks. Voici les points clés :
- L’évolution des technologies et des pratiques SEO suggère que les mentions de marque pourraient devenir aussi influentes que les backlinks traditionnels dans les algorithmes de recherche.
- Les LLMs, comme GPT et autres, sont entraînés sur d’immenses quantités de texte et deviennent capables de comprendre et de produire des réponses dans une variété de styles et contextes. La présence de la marque dans les contenus analysés par ces modèles peut augmenter sa visibilité dans les recherches conversationnelles.
- Les relations presse jouent un rôle crucial en fournissant des mentions de marque de qualité, influençant ainsi les algorithmes de recherche et la visibilité sur des plateformes comme Google Discover, SGE, ou Gemini.
- Le Knowledge Graph de Google, en lien avec les techniques de Génération Augmentée par Récupération (RAG), utilise les données structurées pour fournir des réponses précises et contextualisées dans les résultats de recherche.
- Il est important de s’assurer de la cohérence et de la clarté de sa présence en ligne, optimiser ses contenus pour les LLMs, et établir une présence autoritaire à travers divers médias.
- L’intégration des RP dans la stratégie SEO est essentielle pour renforcer la crédibilité et l’autorité, car cela permet d’affecter positivement son classement dans les résultats de recherche.
Cette conférence met en exergue qu’avec l’évolution des moteurs de recherche vers une compréhension sémantique plus profonde, les mentions de marque, soutenues par des pratiques de RP solides, deviennent un facteur de plus en plus important pour le SEO.
Les marques doivent adapter leur stratégie pour inclure une communication efficace et cohérente qui peut être facilement interprétée et valorisée par les algorithmes avancés des moteurs de recherche.
Comment cultiver son SEO avec Le Parisien Jardin ?
Cette conférence, aborde à travers un business case comment l’alliance d’expertises SEO, thématiques et produit a permis au Parisien de lancer avec succès une nouvelle verticale sur un site média.
Face à une Fatigue informationnelle (53% des Français se sentent fatigués par une actualité souvent négative) le parisien a été mis au défi pour maintenir et augmenter l’engagement des audiences. Objectif : Reconquérir et diversifier les audiences, notamment par l’exploitation du SEO et Google Discover.
- Le projet vise à créer 500 à 1000 contenus pour couvrir 10 000 mots-clés, en s’appuyant sur des templates existants tout en intégrant des besoins spécifiques pour améliorer le SEO technique.
- L’architecture du site est structurée autour des principes de la simplicité, de l’expertise, de l’expérience utilisateur et d’une architecture évolutive.
- Optimisation du temps de développement en utilisant le CMS existant et en intégrant des composants éditoriaux préexistants et en utilisant des templates existants: Optimisation des ressources pour un lancement efficace et rapide.
- Arborescence et maillage interne : Une structure claire et un maillage interne pensé pour favoriser le SEO et l’expérience utilisateur.
- Une attention particulière à la rédaction et à la pertinence des contenus, prenant en compte la saisonnalité et les attentes des utilisateurs.
- Performances Web (WebPerf) : Une priorité donnée à la vitesse de chargement et à l’optimisation technique pour un meilleur classement et une meilleure expérience utilisateur.
La conférence se termine par l’annonce des résultats :
- Les contenus optimisés ont rapidement séduit les audiences sur Discover et ont montré une croissance constante sur le Search.
- Les objectifs fixés ont été atteints en seulement trois mois, démontrant l’efficacité de l’approche adoptée.
- Cette présentation met en lumière l’importance d’une stratégie SEO bien pensée, centrée sur la qualité du contenu et une structure technique optimisée, pour répondre efficacement aux défis actuels de l’engagement du public et de la saturation informationnelle.
Lire la suite du compte rendu de la 2eme journée