[google] La vitesse va influencer le ranking

Ca y est, c’est officiel. Dans un billet de vendredi (Using site speed in web search ranking), Google annonce que désormais la vitesse de chargement des pages devient un élément du ranking. Voici une traduction rapide  d’un bout de l’article :

Rendre les sites est important – pas simplement pour leurs propriétaires, mais aussi pour les utilisateurs. La rapidité rend les utilisateurs heureux et nous avons constaté dans nos études internes que lorsqu’un site répond lentement les visiteurs y passent moins de temps. Rendre un site rapide n’augmente pas seulement l’expérience utilisateur; de ressentes données montrent que cela réduit également les coûts. Comme nous, nos utilisateurs placent beaucoup de valeur dans la vitesse – c’est pourquoi nous avons décidé de prendre la vitesse en compte dans le ranking. tweet

On apprend également dans cet article que cela fait des mois que la fonctionnalité est en test, et que cela n’est actif pour l’instant que pour les recherches en anglais sur google.com. On s’en doutait un peu, Matt Cuts avait plus ou moins lâché l’info il y a quelques mois. D’autre part l’apparition dans Google Webmasters Tools des performances du site laissait supposer qu’il y avait quelque chose dans l’air (dans l’onglet labo).

En ce qui me concerne, c’est une évolution naturelle du moteur de recherche. Il est leader, et a tout intérêt à placer en tête les sites les plus rapides, à contenu égal entendons nous bien.

Si effectivement je considère que l’expérience utilisateur est un point crucial, cette annonce laisse pas mal de questions en suspend :

  • A quel point cela va jouer sur le ranking ?
  • Quelles sont les valeurs pénalisantes ?
  • Quand on parle de réduction des coûts, j’ai l’impression qu’on se f@% de ma g£%le, c’est normal ?

Et oui, concernant la question des coûts, c’est probablement vrai quand on a un paquet de serveurs. Quand on a un hébergement mutualisé, c’est autre chose. C’est plutôt l’inverse, puisque passer d’un mutualisé sur un dédié induit un paquet de frais supplémentaires. Il n’y a que chez les très gros acteurs du ecommerce qu’on dispose des moyens pour faire des économies la dessus.

Alors que va-t-il se passer ? Deux cas de figure : tout le monde s’en fout ou il va y avoir du ménage. Il me semble évident que c’est la 2° option qui va gagner. Même si cette nouvelle donne ne change pas grand chose pour la plupart des sites. A mon avis, seuls seront pénalisés les boulets qui mettent des plombes avant de se charger.

Déjà, les pages html qui mettent 20 secondes à charger, il va falloir les revoir. Ensuite, fini les chargements de 50 .JS et 38 .CSS (ne riez pas, ça existe). Ça ne sera pas forcément un mal.

Reste que pour ceux qui font du ref nat un pivot de leur stratégie il va falloir se pencher sur la technique. Et même si le ranking ne sera pas chamboulé pour tout le monde. En tout cas pas tout de suite. Il va y avoir une course chez certains acteurs, c’est évident.

lentPar contre, si je regarde les graphs de google webmaster tools, j’ai peur. Le graph est séparé en 2 zones. Au dessus d’une seconde sur mon exemple, on est considéré comme lent. J’espère que c’est une blague d’un farceur de chez google.

Le conseil du jour : si votre site est un boulet, tremblez. Surtout si vous captez 50% de votre trafic via google. Sinon, commencez à penser à ce qu’il est possible de faire pour optimiser un poil tout ça, ça peut se faire dans le temps et sans douleurs. Il n’y a pas encore le feu au lac.

28 commentaires

  1. Il me semblait que c’était déjà pris en compte.
    En tout cas pour adwords, cela à toujours influencé la note que l’on obtient et qui détermine le prix de l’enchère et le classement des annonces.

    J’avais vu une préz de Google où Google précisait qu’il voulait présenter aux internautes un web confortable et donc rapide.

    Dans le même esprit, v. Google Chrome dont la vitesse et la simplicité sont les avantages compétitifs.

  2. Ah ben ça c’est une bonne nouvelle ! Depuis le temps que je répète que c’est pas parce que 90% des gens ont l’ADSL qu’il faut se lâcher sur le poids des pages… on va revenir à des choses plus raisonnables, tant mieux

  3. Ça fait un moment qu’on en entend parler, et c’est une excellente nouvelle pour nous autres développeurs (et pour l’utilisateur final, évidemment).

    Ce n’est pas tant qu’il va falloir faire des sites moins lourds, c’est surtout qu’il va falloir se forcer à bien les coder : le poids brut de la page est certes une donnée importante, mais la performance d’un site se mesure à une foule d’autres choses qui incluent le nombre de requêtes HTTP, la compression Gzip, etc.

    Reste l’épineux problème de l’expertise métier que ça va demander de la part de ceux qui cherchent des prestataires pour réaliser leur plateforme de vente, quand on sait que beaucoup d’agences (mêmes des très grosses) font encore un travail excécrable en perf…

  4. Depuis quand vitesse et pertinence sont elles corrélées ? OK, cette forte incitation va certainement être profitable à la qualité du code et donc notre qualité de surf : 1 bon point pour l’internaute. Mais d’un autre côté, pour les recherches moins commerciales, pénaliser des sites intéressants car leurs auteurs sont des billes en programmation ne me semble pas une très bonne idée : 1 mauvais point ; balle au centre ?

  5. Nicolas, l’ idée de Google est simple: si on investit dans son site (serveur dédié, code propre etc…) c’ est que l’ on y ajoute de la valeur.
    Si un site est sur du mutualisé avec un code lourd c’ est que vous ne donnez que peu d’ importance à votre site, il sera donc pénalisé.

    Il faut voir un site comme une maison, on l’ entretient, on en prend soin, on la met en valeur. Si on la laisse dans le même état qu’ au premier jour, après 5-10, elle accuse déjà le poids des ans, donc peu invitante…
    On aime ou on aime pas, mais à moins de renverser GOOG, faut vivre avec. Person, je dirais qu’ il était grand temps…

  6. Bonjour,

    C’est très surprenant de voir autant de personnes satisfaites !

    De nos jours personne ne dit plus rien quand Google impose ses nouvelles contraintes.

    Que va-t-il se passer le jour où pour une raison ou pour une autre votre site sera déréférencé de Google ?

    Google façonne Internet à sa manière, plus personne ne s’en étonne.

    Ces nouvelles contraintes imposées auront des conséquences économiques sur les milliers de marchands en ligne et de sociétés e-commerce qui dépendent de Google. Pourquoi Google ne laisse-t-il pas les choses se faire naturellement: si un site rame alors ses visiteurs fuient, puis le site ferme, puis n’est plus présent dans Google…

    Internet aurait pu être un réseau plus riche, plus libre, plus ouvert mais Google l’a asservi à son modèle économique.

    A bientôt

  7. Alors que Google investit en masse dans des machines pour gagner quelques millisecondes pour afficher ses pages, il renverse en quelque sorte « la charge de la (preuve) rapidité » chez les éditeurs … Le référenceur va devoir encore plus veiller à la technique.

    En parallèle, Google a lancé son code de tracking GATC asynchrone. Est-il également prouvé qu’il permet de gagner quelques millisecondes?

    Merci pour l’info !

  8. Je ne suis pas un « fan » absolu de Google qui trouve que tout ce qu’ils font est « bien », loin de là, mais je voudrais juste préciser un peu les choses : ok, l’objectif de Google est de faire un max de pognon, avec Adwords, ils ont une situation quasi monopolistique sur la pub en ligne, ça, c’est vu du côté du e-commerçant, mais d’un autre côté que fait et comment fait Google ?

    Google ne peut conserver cette position incontournable sur l’achat de mots-clé Adwords qu’à condition qu’il soit l’outil ultime de recherche pour les internautes. Par conséquent tout ce qu’ils ont à faire pour la conserver est d’aller dans le sens du service à l’internaute. Tout ce qui peut faciliter ses recherches est donc bon à prendre (ex : cette histoire de microformats, ou, certes, ça coupe l’herbe sous le pied de certains comparateurs, mais ou ça apporte une information plus directe et de meilleure qualité à l’internaute).

    Mettre en avant, donner un meilleur positionnement à un site qui rame, ça n’est pas aller dans le sens du confort de l’internaute, c’est l’envoyer, non dans un bouchon, mais vers un fort ralentissement à l’approche du péage, si vous voyez ce que je veux dire. Je trouve donc extrêmement logique et cohérent que le leader de la recherche aille dans ce sens.

    Bien sûr, il y en a qui vont en pâtir… and so what ? Y’en a plein derrière eux qui vont en profiter. Pour un programmeur, penser à la vitesse d’affichage de ses pages n’est-il pas une obligation finalement ? De même pour les graphistes, penser au « poids » de ses charte, ça n’est pas un peu le B.A. BA du métier ? Ne peut-on pas faire le petit effort qui consiste à optimiser ses scripts, ses images, ses serveurs, pour rendre la navigation plus fluide ? Un des principes mêmes de nos métiers n’est-il pas de faire abstraction de son point de vue, de ses goûts, de ses habitudes (et de la qualité de sa propre connexion) pour penser aux 10% des internautes qui ont des connexions un peu faiblardes ? Lorsqu’on fait du Flash, n’est-il pas possible de faire autrement que de placer des « barres de chargement » un peu partout pour faire patienter les 3 Mo ?

  9. @Ecommerce Wall :
    Google, comme Apple ou Microsoft, est une société tentaculaire monstrueuse qui a su s’imposer par diverses techniques (souvent par la qualité et la gratuité de ses produits d’ailleurs, à la différence des deux autres). Elle n’est pas là pour faire progresser l’espèce humaine mais son chiffre d’affaire !

    On peut critiquer son monopole et son agressivité commerciale (du reste, je suis le premier à fuir les services de « Big Browser »), mais ça ne changera rien au fait que c’est une entreprise qui ne doit rien à personne et qui fait ce qu’elle veut tant qu’elle reste dans un cadre légal… « Don’t be evil », ça ne bluffe que les naïfs.

  10. @ huh,
    J’aime bien l’idée de la belle maison, mais je ne suis pas certain que beauté de la façade rime toujours avec qualité des occupants 🙂

  11. @STPO: d’accord avec toi, sauf sur le fait que « Google ne doit rien à personne », je dirais l’inverse: Google doit tout à ses annonceurs.
    C’est pour ça que c’est embêtant que Google fasse tout pour les presser à mort.

    @François: d’accord aussi.
    Je dis juste que les sites qui rament peuvent naturellement être éliminés par les internautes. La vitesse est un critère qualitatif, qui ne dérange pas tous les internautes.

    Le problème n’est pas que Google abuse à mort de sa position et n’a aucun respect pour ses annonceurs, mais c’est plutôt que nous ne sommes pas capables de riposter, car Google est trop fort.

    Google est le plus gros péage de tous les temps, il a transformé Internet en un gigantesque annuaire et les 4 lignes de publicité qu’ils proposent aux annonceurs sont encore moins qualitatives qu’un emplacement dans les pages jaunes.

    Suis-je le seul à le penser ?

  12. Moi je vois ça d’un bon œil car depuis plusieurs semaines je bosse pour améliorer la rapidité de mon site et sans trop forcer je suis passé sous la barre de 1 seconde.

    Pourquoi ces efforts, me direz vous ? Pour mes clients ou futurs clients. On le sait le client n’aime pas attendre donc faisons le nécessaire pour lui éviter de l’attente.

    Résultat, j’ai vu mon taux de rebond baisser légèrement et mon taux de transformation légèrement augmenter.

    Quand Google prend en compte la rapidité d’un site dans le ranking, je dis bravo.

    Je ne comprend pas certains qui voient ça que comme une contrainte alors qu’optimiser son site afin de le rendre plus rapide ne peut être que bénéfique au delà de tout considération de ranking.

    A OUI c’est vrai c’est Google que le dit !

  13. @Ecommerce Wall :
    « La vitesse est un critère qualitatif, qui ne dérange pas tous les internautes »… certes, ça ne dérange pas tous les internautes. Une charte pourrie non plus ne dérange pas tous les internautes, un site pas optimisé W3C ne dérange pas tout le monde non plus. Excuse-moi si je me trompe mais il me semble que nos métiers consistent à faire en sorte que le plus grand nombre possible d’internautes aient un confort d’utilisation qui pousse à les transformer en client pour nos clients.

    Alors je veux bien comprendre que ça « gonfle » ceux qui bossent sur des plate-formes gourmandes (ça va faire bosser les optimiseurs), ou les programmeurs qui sacrifient tout à la dernière geekerie qui en jette à mort mais qui te bouffent de la ressource comme pas permis (y’en a…), ou les graphistes pour qui le poids des images n’est pas une considération valable à leurs yeux d’artistes (y’en a aussi), mais faudrait voir à ne pas oublier les fondamentaux : le web, c’est pas la télé qui t’envoie 2 Mbps en flux tendu pur jus (pas par paquets). J’en connais qui ont de vieilles machines qui rament, d’autres qui sont en bout de ligne et qui en regretteraient presque les 56K, y’a même des tordus qui surfent sur leur iPhone, c’est te dire ! 😉

    Donc Google ou pas Google, je persiste et signe, la vitesse est un critère fondamental qu’on a eu tendance à reléguer dans les fonds de tiroir depuis que « tout le monde » est passé à l’ADSL

  14. Bonsoir à tous,
    J’ai l’impression qu’il y a deux sujets différents dans nos échanges.
    Le premier concerne l’impact positif de la rapidité sur la qualité de surf de l’internaute, voire sur le CA dans un contexte marchand,
    Le second concerne l’intérêt d’en faire un critère de classement par Google.
    Personnellement, je suis tout à fait d’accord avec la première proposition mais pas convaincu par la seconde.
    En effet, je crois aux ajustements collaboratifs. Dans un contexte marchand où la rapidité est un facteur clé de succès, elle sera plébiscitée par les internautes ce qui influencera le ranking.
    Dans un contexte non marchand la pertinence du contenu sera privilégiée et les sites lents mais riches resteront bien classés.
    Le web n’est pas uniquement marchand et il me semble que l’on peut attendre d’un moteur de recherche un maximum de neutralité dans la façon de présenter ses résultats.
    De façon générale, la neutralité sur le réseau Internet est un vrai sujet !

  15. Bonjour à tous,
    L’idée n’est pas mal, mais pour suivre il y aura pas mal de gens qui vont souffrir,..j’espère que se sera dans le bon sens.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Merci de taper les caractères de l'image Captcha dans le champ

Merci de saisir ces caractères dans le champ
ci-dessous afin de valider votre commentaire.

Article de : Cobolian

Jacques Terrier Ecrit sur ce blog et ailleurs : Tutos performance web et formation e-commerce sur OSEOX Twitter : Twitter