Le secteur du luxe est en pleine mutation. Les clients sont de plus en plus exigeants et se tournent vers les maisons qui offrent une expérience digitale fluide et performante. Votre site web est-il à la hauteur ?
J’ai le plaisir de vous partager mon webinaire que j'ai animé et qui est riche en informations exclusives et utiles pour vous!
👉 𝐀𝐮 𝐩𝐫𝐨𝐠𝐫𝐚𝐦𝐦𝐞 :
- Résultat d'une étude que nous avons réalisée sur les Webperformances des maisons de luxe. Cette étude vous permettra de découvrir les dernières tendances du secteur et de comparer votre performance à celle de vos concurrents.
- Je vous partagerai mes meilleures pratiques pour améliorer votre visibilité et votre trafic web, en tant que conseil d'expert qui a plus de 20 ans d’expérience.
- Benchmark, Webperformance. Vous aurez accès à des données clés pour vous aider à évaluer la performance de votre site web et à identifier les domaines dans lesquels vous pouvez vous améliorer.
𝐂𝐞 𝐰𝐞𝐛𝐢𝐧𝐚𝐢𝐫𝐞 𝐞𝐬𝐭 𝐮𝐧𝐞 𝐨𝐜𝐜𝐚𝐬𝐢𝐨𝐧 𝐮𝐧𝐢𝐪𝐮𝐞 𝐝𝐞:
- Découvrir les dernières tendances en matière de performance web pour les maisons de luxe
- Obtenir des conseils d'un expert reconnu
- Q&A
Helpful Content Update - la mise à jour qui change à tout jamais la façon don...
Webinar : 𝗹𝗲𝘀 𝘀𝗲𝗰𝗿𝗲𝘁𝘀 𝗱𝗲𝘀 𝗹𝗲𝗮𝗱𝗲𝗿𝘀 𝗱𝘂 𝗹𝘂𝘅𝗲
1. Les secrets des leaders du Luxe
Philippe YONNET
Ceo Groupe Neper
WEBINAR
12 mars 2024
11h00
2. Philippe YONNET
Spécialiste SEO depuis 2003
Fondateur du Groupe Neper
Ex : DGA de l’agence SEO Aposition / Iprospect
Fondateur et ex DG de Search Foresight
1er Président de l’association SEO Camp,
créateur des SEO Camp’us et de la certification
CESEO
Organisateur des conférences internationales
Search Y
Membre du jury des European, Global, et Uk
Search Awards. Membre du comité
d’organisation des Awards by FEPSEM
4. Présentation de
l'agence Neper et de
l’intervenant
11H00 11H05 11H20 11H35 11H55
Les challenges pour
les sites des
Maisons de Luxe
Résultats de l’étude
Webperformance et
Maisons de Luxe
Questions et
réponses
1 2 3 4 5
PROGRAMME
Introduction
FIN
DU
WEBINAR
Résultats de l’étude
Webperformance et
Maisons de Luxe
5.
6. Le groupe Neper
Agence conseil en Search
Marketing
R&D sur modèles de
langues
Solutions SaaS de digital
marketing
Formations et événements
en marketing digital.
Labs
7. Neper s’est dotée dès son lancement d’un
programme de recherche sur les applications
de l’IA et du NLP au digital marketing piloté
par le Dr Halaleh Kamari
Neper a le statut de Jeune Entreprise
Innovante
Neper Labs
8. Nos outils et nos solutions
Permet de tester l’impact
d’une série d’optimisations
sur le SEO sur un
échantillon, avant de le
deployer sur toutes les
pages
Optimisez votre maillage
interne pour gagner des
positions dans les SERPs
Développez votre
couverture sémantique
Gagnez du temps dans
l’implémentation des
solutions SEO avec nos
solutions de Edge SEO
Nos Solutions
Neper Mesh
Maillage Interne
Neper LAPLACE
Split testing SEO
Neper EDGE
Edge/Cloud
SEO
L’outil identifie les mots
clés sur lesquels des LP
sont manquantes, et les
crée pour vous, à votre
charte. Ces LP sont
exploitables en SEO
comme en SEA
Neper LPG
Landing Page
Generator
Exploite les possibilités des
modèles de langage
préentrainés pour
améliorer votre
productivité et la qualité
des contenus avec l’aide
d’outils IA
Neper LLM
SEO assisté par IA
9. Abonnez-vous à la newsletter de Neper
Chaque semaine, les articles du
Blogarithme Népérien, notre blog
https://www.neper.fr/category/blog/
Articles de fond sur le digital marketing
Commentaires sur les événements marquants
de la semaine
Pas une simple curation : des tips, des conseils
Mais aussi
Nos prochains événements
Nos prochaines formations
L’actu du groupe Neper
10. Abonnez-vous à notre chaine Youtube
Les replays de nos événements
Des actus en videos
Des tutoriaux
https://www.youtube.com/channel/UCS3h6v2Ki4634Mgnltbz5mA
13. L’industrie du luxe se porte bien
Rapport McKinsey
The state of Fashion 2024
Croissance du secteur en baisse, mais la croissance
du secteur du Luxe sera encore supérieure à celle de
l’ensemble du marché (3 à 5%)
Autant optimiser sa part de marché
92% des maisons de luxe ont une boutique
en ligne en 2023
(https://www.mckinsey.com/industries/retail/o
ur-insights/state-of-fashion)
70% des ventes de luxe en ligne se font sur
le site web de la marque
(https://www.salesforceben.com/5-insights-
from-the-state-of-salesforce-2023-2024-
report/).
Malgré les vents contraires
14. Quand le luxe est une contrainte…
Le marketing est central pour vendre des produits de luxe
Difficile de faire sentir un parfum sur un site web
On montre un « univers » autour du produit
On fait deviner les attributs du produit : c’est beau, luxueux, associé à un mode de vie, etc.
On montre une personnalité connue qui « incarne » les attributs du produit…
La dictature de l’expérientiel et du beau
15.
16.
17.
18. Et quand on l’applique à un site web ?
Une UX « expérientielle » et riche
Grandes images, recours à la video, effets visuels
Transposition des codes des pubs affiches et magazines
Peu de texte, priorité aux visuels, interfaces minimalistes
Polices de caractères, couleurs
Interface pas toujours très lisible et ergonomiques
Volonté de montrer sa créativité et son originalité
Recours à des interfaces originales (en voie de disparition)
Tentatives de « live shopping »
Recours à des animations
Jadis en Flash, aujourd’hui en Javascript
Parfois, c’est un peu intrusif
Vidéos qui démarrent toutes seules, musique de fond
Cela conduit à certains points communs
22. Il y’a des exceptions
Quoique…
Boutique en ligne officielle Saint Laurent | YSL.com
23. Ce n’est pas sans conséquences…
Peu de textes implique un SEO plus compliqué
Recours immodéré aux animations
Autrefois en flash, maintenant en JS
Pages lourdes (et lentes) à charger
Images plein écran en haute résolution
Videos de plusieurs Mo, parfois de plusieurs dizaines de Mo
25. SEO : respecter les codes du luxe
Fragrance, Eau de parfum,
Parfum or perfumes ?
Quand les utilisateurs tapent autre
chose que ce que les maisons
voudraient…
26. SEO : des sites internationaux
https://www.domperignon.com/
Page d’accueil en
noindex ?
Store locator
crawlable ?
Mais pas forcément à la hauteur techniquement
28. Méthodologie
Méta-analyse des données CRUX pour un échantillon de sites de Maison de Luxe
CRUX : indicateurs sur l’expérience de vrais utilisateurs de Chrome
Indicateurs mesurés sur le mois de janvier 2024
Evolutions sur les douze derniers mois
Pour recevoir l’étude complète sur votre secteur :
Envoyez un email à contact@neper.fr
31. TTFB
Les pages avec un mauvais indicateur de
TTFB sont
Difficiles à crawler
Ralentissent les temps de rendition totaux
Présentent probablement
Des problèmes de mise en cache ou de
34. Les principales conclusions
84% des sites présentent un ou plusieurs indicateurs dégradés de performance
Mais si on analyse un groupe de concurrents, les performances sont souvent proches
Dans les Core Web Vitals, l’indicateur le plus souvent dégradé est aujourd’hui le CLS
Souvent plus en version desktop qu’en version smartphone
Le LCP est souvent limite
La consultation sur tablette varie beaucoup d’un site à l’autre
35. Exemple de problème de CLS
Boucheron.com
Expérience smartphone compliquée
Expérience desktop catastrophique
37. La problématique du TTFB
Au-delà d’1,5 sec, l’impact sur le SEO se fait sentir
38. Quel poids à la webperformance
dans l’algorithme de classement
de Google ?
39. Rappel : l’objectif de l’algorithme de classement est de
classer les résultats par ordre inverse de pertinence !
Au final, qu’est-ce que cela veut dire
pour les signaux de web performance ?
Est-ce qu’une page lente est moins
pertinente qu’une page rapide ?
1er
2e
3e
4e
41. Pourquoi ?
C’est un signal qui est totalement
indépendant de la requête
Oui, comme le Pagerank
Sauf que le Pagerank mesure
l’importance d’une page sur le web
Et le Pagerank est, contrairement à la
légende urbaine parfois propagée par
les SEOs eux-mêmes, un signal qui a
peu de poids relativement à d’autres
Le signal « web performance » a en
fait un poids très faible
Ne vous fiez pas aux études produites les outils sur les « ranking
factors » : elles sont remplies de biais statistiques énormes, leurs
conclusions sont toujours non scientifiques.
42. 43
Est-ce que le résultat est une bonne
réponse à la recherche de l’internaute ?
Pertinence et utilité du contenu
en tant que réponse Signaux indépendants des requêtes.
Entre deux réponses similaires d’un point
de vue contenu, laquelle sera choisie par
un internaute ?
Qualité, fiabilité, importance
Importance et confiance
Autres critères comme usage de protocole
sécurisés, compatibilité mobile, absence
d’instersitiels intrusifs, et… web
performance
Experience de recherche
Poids
très important
Poids beaucoup
plus faible
Poids très très faible
“Tie breakers”
La vraie hiérarchie des signaux dans le cœur de
l’algorithme
Pertinence Search Experience
43. Attention : indétectable ne veut pas dire inexistant
Absence de preuve n’est pas la preuve de l’absence
Statistiquement, un signal faible n’aura pas d’impact mesurable, c’est ce que cela veut
dire ici
44. Est-ce que cela veut dire que ce signal ne compte pas ?
Non. Il a poids faible, mais pas nul
Toutes choses étant égales par ailleurs,
il sert à départager deux résultats ex
aequo
Notion de « tie-breaker signal »
John Mueller a indiqué que c’était
d’ailleurs un plus qu’un tie breaker
45. Oui mais pourquoi Google en a fait des caisses ?
Google aime bien utiliser des nudges pour changer les comportements
46. Mais comme les propriétaires de sites ont surinterprinté leur
nudge, ils rétropédalent
Problème constaté par Google :
trop de propriétaires de sites dépensent une énergie folle sur les
CWV et la Page Expérience, au lieu de se focaliser sur des choses
qui ont plus d’impact, comme la pertinence et l’utilité de leur
contenu
Réponse : la Page Experience n’est plus un système, et n’est plus un
signal, mais un « concept » => 19 avril 2023
https://www.neper.fr/2023/05/03/fin-du-concept-de-page-
experience-un-non-evenement-a-ne-pas-surinterprinter/
Raté au niveau clarté => le concept de page experience désigne maintenant aussi la
qualité et l’utilité du contenu
Au passage d’autres nudges ont disparu de la liste des « systèmes » de l’algorithme Ne
sont donc plus des « systems » les nudges suivants :
Page experience system
Mobile-friendlyranking system
Page speed system
Secure sites system
47. Au final, quel est le poids du signal
web performance dans le cœur de
l’algorithme de classement ?
Faible, mais pas nul
Un petit peu plus qu’un simple tie breaker
Suffisamment faible
pour avoir un impact indétectable statistiquement
48. Attention : l’impact peut être fort sur
l’explorabilité
Page trop lente à télécharger
Indicateurs TTFB (plutôt TTLB) à surveiller
Rendition du contenu trop difficile
49. Impact sur l’explorabilité : le temps de
téléchargement
Quand le temps de téléchargement
dépasse un certain niveau (autour
de la seconde), le comportement de
crawl change
Baisse du rythme de recrawl
Arrêt du crawl
Le rapport donne un temps moyen
pour télécharger toutes les
ressources (images, js, css, html…)
Mais ce n’est pas un temps de
rendition : juste le délai pour
télécharger le contenu du fichier, pas
l’exécuter
50. L’impact du download time
Si le DT > 1 sec, Googlebot commence à ne plus télécharger ces pages
Un DT correct pour une page web tourne autour
de 250 ms
Pendant qu’une page lente (1 sec de DT) se
télécharge, 4 pages « normales » peuvent être
téléchargées
Conséquence :
Les pages non explorées (non téléchargées) ne peuvent
pas être indexées, rankées et rapporter du trafic
Les pages lentes risquent d’être explorées moins souvent
Aucune conséquence sur les classements mais grosse
perte de trafic et d’opportunités
Pages non indexées
Pages indexées tardivement
51
51. Comment analyser le download time ?
Même constat dans l’autre sens : si le temps de
téléchargement baissé => pic de crawl
On a maintenant la ventilation des ressources crawlées
(mais pas les temps moyens par ressources)
Rapport GSC : il est ventilé par type de ressources
52. Mais le temps de rendition a aussi un impact sur
l’explorabilité
Si une partie de votre contenu est généré
en JS côté client (CSR), alors il doit être
découvert par le Web Rendering Service
de Google (WRS)
Si cela demande trop de ressources à
Google, votre contenu sera oublié /
ignoré
Pb des timeouts
Pb de la charge CPU
Aujourd’hui, les temps de rendition
nuisent aussi au référencement
53. Attention aux temps de rendition observés par
Googlebot
Ce qui va causer un temps de rendition trop long pour Googlebot :
Le JS côté client (en CSR) demande 20x
plus de ressources qu’un crawl normal !
Ne tirez pas sur la corde, notamment :
Si votre code JS consomme trop de
temps CPU
Si vous générez trop de « time outs »
Vos ressources sont lentes à charger
Méfiez vous des scripts tiers, des
trackers
54
54. Oui mais comment savoir ?
Effectuez un test d’exploration via la Google search console
Si vous voyez des choses bizarres dans les
résultats
Snippet bizarre
Pages qui ne remontent pas sur certaines
requêtes
Un modèle de pages qui ne s’indexe pas ou
très partiellement
Essayez d’inspecter les urls concernées à
l’aide de l’outil ad hoc de la Google Search
Console
55. Quelques points d’attention avant de conclure qu’il
y’a un problème de time out
Pensez à tout regarder : le code obtenu (onglet HTML), l’apparence de la page,
(capture d’écran) et les erreurs (dans plus d’infos)
Si vous voyez une rendition partielle pour Googlebot, vérifiez si vous ne
bloquez pas des ressources utiles à cette rendition via le robots.txt
Images, json, js, css, xml….
Vérifiez aussi que vous n’avez pas de cloaking, volontaire ou involontaire
Contenu présenté « spécialement pour Googlebot »
Jamais une bonne idée pour le SEO
C’est contraire aux guidelines (pardon, aux « essentials »)
Si c’est ok de ce côté-là, cela veut dire que Googlebot n’arrive pas à
rendre tout le contenu dans le temps qu’il lui a été imparti, avec les
ressources qui lui sont allouées
Et là, si le contenu oublié est utile au SEO, c’est ballot
56. Ces niveaux de webperformance sont-ils
impossibles à améliorer pour les sites de Luxe ?
S’agissant du CLS, une simple correction du code front permettrait de résoudre le
problème
La qualité de l’intégration technique HTML/CSS/JS est en cause
Les products managers ne doivent pas vérifier uniquement la compliance versus les maquettes,
mais aussi la compliance vs les problématiques d’UX
Pour le TTFB, le problème vient de l’infra (hébergement+architecture logicielle)
C’est très technique, mais le souci vient en général de soucis sur les règles de mise en cache des
pages web, des règles sur le CDN, le reverse proxy et tous les systèmes de cache en général
Les products managers doivent faire attention aux personnalisations => toujours prévoir une
version par défaut « cachable » et ne pas faire de personnalisation côté serveur
Côté LCP, c’est plus compliqué, vu le poids et la taille à l’écran des éléments à charger
sur des sites de luxe. Mais c’est important de l’optimiser au maximum, et de faire mieux
que les concurrents
58. Les plateformes les plus populaires
SAP Commerce Cloud
AEM et Adobe Commerce Cloud
SalesForce Commerce Cloud
Big Commerce (Maisons américaines)
Shopify !
Drupal côté open source en mode headless
Chez les maisons de luxe
59. Le problème avec ces plateformes
Elles ne sont pas « SEO Compliant » sans paramétrage et sans savoir faire
Elles sont souvent complexes et pas toujours bien maîtrisées par les intégrateurs
« cela ne va pas être possible » alors que si, c’est très possible
Elles ont toutes une approche spécifique pour simplifier la vie des merchandisers
Il faut connaître ces idiosyncrasies pour que les product managers ne demandent pas des
fonctionnalités qui sont difficiles à réaliser sur une plateforme donnée
Les équipes fonctionnelles doivent maîtriser ces outils à fond avant de spécifier une
implémentation pour leur maison.
Côté front, il y’a souvent des « dépendances » => le code est généré en totalité ou en
partie par l’outil
De plus en plus de Maisons de Luxe se tourne vers le « headless »
Ce qui pose de nouveaux challenges pour le SEO
62. Conclusion
Intéressé par le rapport CRUX pour votre site ?
contact@neper.fr
Intéressé par une étude sectorielle pour votre secteur parmi les maisons de luxe
contact@neper.fr