Google tient compte de la vitesse pour le référencement

C’est la nouvelle de merde de ces derniers jours, que je trouve au premier abord d’un ridicule absolu : Google vient d’annoncer qu’il prend en compte dans ses critères la vitesse de chargement d’un site et de ses pages pour le positionnement.

Personnellement, je trouve ça horriblement stupide, mais peut-être que certains vont me contredire.

1/ Un site lent n’est pas un site non pertinent

Il me semblait que jusqu’à présent Google essayait de mettre en place dans son algorithme de positionnement des formules permettant selon lui de jauger la pertinence d’un site Internet et de le classer en fonction de ça. Honnêtement, qu’un site soit lent ne veut en aucun cas dire que son contenu n’est pas pertinent, et inversement.

2/ Il s’agit d’un critère parmi des centaines

Maintenant, il faudrait réellement connaitre l’impact de ce nouveau (?) paramètre. Est-ce important ? Est-ce peu important ? Je doute que cela ait une importance primordiale, ou alors Google est tombé sur la tête.

3/ Sanction sur 1% des requêtes

Dans l’article sur ce sujet posté sur le Webmaster Central Blog de Google, Amit Singhal et Matt Cutts affirme que seules 1% des requêtes sont touchées. Dans le fond, cela n’est pas énorme, mais tout de même. Cela laisse aussi présager une prise en compte nettement plus large à l’avenir. Cela amène aussi il me semble une autre question :

4/ Quels sont les sites pénalisés ?

Si Google affirme que ce critère a un impact sur 1% des requêtes, c’est que Google ne prend pas en compte ce critère pour l’ensemble des sites Internet. Du coup, il s’agirait plus d’une sanction à la sandbox ou au duplicate content (en moins violent j’imagine), destinée aux sites Internet qui rament à mort.

5/ Et la sélection naturelle ?

La où je trouve l’annonce de Google ridicule, et en admettant que le vitesse d’un site n’altère ou ne favorise en rien son contenu (ce qui est forcement le cas), il me semble que ce n’est pas à lui de choisir ou non de pénaliser un site (on se comprend hein, bien sûr qu’il fait ce qu’il veut). L’internaute fermera de lui-même et passera au suivant. Ensuite, je préfère attendre quelques secondes de plus et me retrouver devant une page plus en accord avec ma recherche, même si, sur certaines requêtes, le numéro 1 et le numéro 2 se valent largement. C’est d’ailleurs peut-être à ce niveau là que Google souhaite améliorer les choses.

6/ La nouvelle optimisation à faire

Du coup, si tu tournes sur un petit hébergement, que tu fais quelques visites, et que tu as quelques plugins, tu es foutu mon gros. Dès à présent, voici le cocktail gagnant pour être un numéro 1 sur Google.

  • Un site Internet sans base de données
  • Un site Internet sans script PHP
  • Un site Internet sans JavaSript
  • Un site Internet sans images
  • Et surtout… 69 liens vers Youporn pour faire exploser mon ranking !

OU

  • Avoir un max de pognon et un pur serveur

En tout état de cause, j’ai décidé de changer mon mutualisé car ça rame par moment pas mal, malgré ma belle chute de visiteurs venant de Google depuis quelques semaines… Ce changement là n’a pas grand chose à voir avec cet article, mais peut-être que c’est tout de même un facteur déclenchant. Et merci à Etsionparlait, Techredible, Semageek, Marketcommerce, Juriblogsphere pour l’aide sur Twitter à ce sujet (précision : j’ai mis le nom de leurs blogs ou sites, ce ne sont pas leurs vrais prénoms… au cas où).

Bref, paramètres de merde, Google de merde, et merde de serveur.

30s Commentaires à “Google tient compte de la vitesse pour le référencement”

  1. Et moi je laisse tomber mon hébergement pour aller sur blogger et depuis, 50% de mes visites viennent de google 😀

    Répondre
  2. Et oui ca rajoute un critère à prendre en compte, mais c’est ça le jeu du référencement 😉
    Personnellement, je trouve que ça peut être un bon critère d’efficacité.

    Le rôle de Google est d’offrir au visiteur le site correspondant à ses attentes. Si un internaute tombe sur un site qui met longtemps à se charger, il va souvent partir voir un concurrent qui se charge plus vite. C’est donc normal d' »éliminer » des résultats les pages lentes.

    Après, favoriser un site qui se charge en 1.3 secondes par rapport à un qui se charge en 1.5 secondes est certainement moins pertinent en effet, mais bon c’est Google qui dicte les règles du jeu !!!

    Répondre
  3. Mouais. Faudrait pas penser que Google cherche à être pertinent quand même … je pense que depuis deux ans ils ont compris que les sites qui font du pognon sont leurs amis aussi 🙂 La qualité n’a pas grand chose à avoir là dedans sinon qu’un site qui rencontre un vrai succès auprès des internautes (en visites = traquées via Analytics) est forcément un site pertinent. Pour ce qui est du rapport lenteur/hébergeur, j’en fais les frais tous les jours avec mon gentil hébergeur helvète qui me demande de réviser tous mes scripts. La charge MySQL est telle que tous les codes chez moi tournent maintenant sans aucun appel SQL à RAND() ni aucun appel à LIKE 🙂 Au moins avec eux j’apprends à code 😉

    Répondre
  4. Je dois être teubé mais dans le cas du site full flash, on peut dire adieu au référencement déjà que c’était un beau bordel ?!
    Puis un 1% des requêtes, OK mais ca commence à chiffrer quand on sait qu’il y a pas loin de 2,5 millions de requêtes/jour sur l’ami Google. Bref, ca me fait du boulot en plus tout ça…

    Répondre
  5. J’adore les 60 liens vers youporn ! Décidément, tu ne t’en remets pas ! Cela dit, pour améliorer la vitesse, la meilleur solution reste de supprimer tous les services de google comme google analitycs ou adsense. Ils se tirent une balle dans le pieds les pépères :p

    Répondre
  6. Je suis totalement d’accord avec ton point n° 5.
    En complément, je dirais que si vous souhaitez améliorer le temps de chargement de vos pages, le plus rapide est souvent de supprimer google analytics. Je ne vous parle pas de l’outil de traduction lorsqu’il est installé.
    Bref, pas très logique à mon avis, même si je comprend bien que la vitesse de chargement est un plus indéniable pour le visiteur, mais cf -> retour point n° 5

    Répondre
  7. Entièrement d’accord avec. A mon avis, le temps de chargement d’une page n’affecte en rien la pertinence d’un site. J’héberge mon blog sur un serveur mutualisé d’ovh, donc à part essayer d’optimiser mes pages, je peux pas faire grand chose…

    L’avenir nous dira si le pageSpeed sera un critère important, reste à espérer que non !

    Répondre
  8. Je pense qu’il n’y a pas trop lieu de s’inquiéter. Google n’est à mon avis pas prêt de faire de la vitesse un critère majeur, vous pouvez dormir tranquille. 🙂

    En fait, pour l’instant c’est surtout une mesure qui pénalisera les sites très lent, et quand je dis lent, je parle des VRAIMENT très lents (d’où l’histoire des 1%). Pour tous les autres, c’est une bataille de millisecondes et cela n’affectera pas vraiment le référencement (pour les 99% qui ont un serveur normal, pas besoin d’une bête de course pour tomber dans cette catégorie).

    Peut-être qu’à l’avenir, il s’agira d’optimiser à mort son code HTML (d’où l’intérêt de se mettre dès maintenant aux web standards) pour gagner quelques octets à tout prix, mais pour l’heure, je pense que si l’on se contente de ne pas mettre des images de 1mo sur toutes les pages, il n’y a pas grand chose à craindre.

    Ceci dit, voilà peut-être une bonne raison pour tout le monde de mettre un peu le nez dans son code pour l’optimiser, cela ne fait jamais de mal. Mais surtout, ne dépensez pas votre argent dans de l’hébergement de luxe : dans ton exemple Keeg, tu ne crains rien pour le moment.

    Répondre
  9. Je maintiens mon avis sur la chose, proche du tien : c’est complètement idiot d’un point de vue de la pertinence des recherches… Mais j’ai vraiment l’impression que Google ne fait plus de R

    Répondre
  10. ( mon message a été coupé je crois )
    « …R » et D, ce qui risque de leur retomber dessus un jour. Je ne leur prédis pas un avenir plus rose qu’à IE si jamais ils ne corrigent pas le tir.

    Répondre
  11. @Matthieu : Je comprends tout à fait ta logique, tout à fait valable. Reste à savoir à quel point Google prend en compte et surtout prendre en compte ce critère.

    @TsorP : Ca dépend si Google se prend le choux a visiter ton swf, auquel cas ta page est super lourde, ou si il s’n fou complet, auquel cas il considère que ta page est maxi-légère. Les autres, avez-vous des éléments de réponse ?

    @AxeNet : C’est clair que les outils Google, pour le coup, ça rame à mort.

    @Guillaume Optimisé les pages web… Pour les connaisseurs comme la majorité d’entre nous sur ce billet, ça ne pose pas forcement de problèmes si on s’y met. Par contre, si un passionné d’un sujet mais peu connaisseur du dev met en ligne une usine à gaz avec malgré tout un contenu pertinent sur ce sujet, il est grillé. Bon, c’est déjà le cas aujourd’hui avec d’autres critères, mais est-ce utile d’en rajouter ? Pas si sûr.

    @Emmanuel : Google est quand même sacrément mal embarqué pour être détrône. Mais bon, pour IE le déclin est quand même bien rapide (comme il le fut pour Netscape d’ailleurs).

    Répondre
  12. Google a encore gagner …
    Faire parler de lui avec du vent puisqu’il n y a pas moyen de vérifier ce genre d’assertions.
    Suffit que Google pète un coup pour que le microcosme du référencement devienne vert et obéisse à Google le petit doigt sur la couture.
    Merde si y avait que Google comme moteur de recherche, parce que si Google est la, c est bien parce que certain ont suivi comme des moutons non ?
    Et maintenant comme par hasard ça gène parce que la c est vachement flou le concept de vitesse de chargement.
    Sinon c est bien un site sans javascript qui sert a rien … Plein le cul des scripts jquery qui font 300ko embarqué pour changer un titre de page … Ou les plugin qui embarque tout en triple exemplaire avec motools pour faire la paire… Et je vais éviter de parler du sois disant .png ouvert et largement mieux que les .jpg proprietaire …

    Répondre
  13. Pépé

    @Fox15: intéressant ton histoire de Blogger … google se favorise-t-il ?

    @keeg: bon quand est ce que tu le crée ton algo pour moteur de recherche? C’est pas que ça fait chier de devoir se plier à la bonne volonté du dieu google, mais il donne pas ses dix commandements. Heureusement que tu fais un bon prophète!

    Répondre
  14. En effet, un peu débile comme critère… J’en comprends pas vraiment l’intérêt à moins que les pages mettent 30 secondes à charger et encore :/

    Sinon en dehors de tout référencement, pour l’optimisation, perso je vérifie régulièrement mes changements via http://gtmetrix.com/ je trouve le truc clair et l’on peut comparer avec d’autres sites. C’est visuellement agréable et simple.

    D’ailleurs c’est marrant parce que j’avais décidé de changer complètement de design à cause du temps de chargement des pages et d’un nombre absolument pas raisonnable de scripts qui traînaient.

    Répondre
  15. Je suis en train de testé cet outil. Reste à connaitre sa fiabilité pour s’assurer des résultats. En tout cas, tes résultats sont meilleurs que les miens, pour l’instant 🙂

    Répondre
  16. perso, je suis plutôt d’accord avec le lapin rouge, info invérifiable

    je pense que gogle fait ça pour faire la une de l’actu, comme d’habitude.

    @Keeg : pour ton point 4 je pense aux sites avec des images en bmp (oui il y en a encore) de 5Mo qui mettent plus d’une minute à charger, pas à des sites qui mettent 3 ou 4 secondes de plus que la seconde recommandée.

    par contre pas de pénalité à la sandbox, plutôt un positionnement moindre

    Répondre
  17. @Keeg : oui c’est l’un des plus fiables en fait puisque c’est le seul qui prend bien en compte correctement quand tu gzip tes fichiers. J’en ai testé d’autres, ils me sortaient que rien n’était compressé alors que bon, jsuis bien placé pour savoir quand c’est fait 😛

    Autre truc important, il ne gère pas les conneries qu’on peut voir sur certains sites, genre « Attention ! T’as plus de 20ko d’images, c’est critique, tu vas tuer l’internet web ». c’est un truc que je trouve aberrant.

    Niveau résultats, déjà vu qu’on utilise pas du tout le même cms et que je compresse beaucoup (css, js principalement ainsi que les éléments du template et du framework), y’a des différences notables. L’autre point c’est que je nettoie le html et les css des espaces inutiles automatiquement, ça joue très peu mais ça rentre dans les optimisations et j’enlève les balises superflues de la même manière. L’ancienne version de PnG avait les même résultats que Keeg en fait. J’ai juste beaucoup optimisé les choses en profitant d’un framework et en diminuant drastiquement modules, hacks et code.

    Et si je peux donner un conseil : à chaque optimisation faite ou plugin d’opti ajouté il faut impérativement tester via le même site parce que je me suis déjà retrouvé en face d’une baisse de perfs en réunissant certains css, genre -10%. C’est assez fourbe.

    Répondre
  18. Les tentacules de Google s’emmêlent les unes avec les autres.
    Au département »moteur de recherche & maître du monde », ils ont trouvé un critère de plus. On verra si ça change vraiment quelque chose. Il s’obligent à trouver d’autres critères et modifier leur algo en permanence, ce qui finalement n’est pas plus mal.

    Le département « Page speed & chasse à l’octet gâché », ils sont parfaitement d’accord. Au point de suggérer au webmaster lambda d’avoir un CDN et d’optimiser les scripts qui ne le sont pas, comme les scripts analytics et adsense.

    Résumé : je mets Google Adsense sur mon site, ça le ralentit, et ça me pénalise dans les SERP Google. Euh…

    Répondre
  19. Salut Keeg 🙂 pour raccourcir le temps de chargement de tes pages, utilise un module de compression gzip, ca te permettre de gagner beaucoup de temps de chargement déjà ^^

    Répondre
  20. C’est limite de la sandbox … 50% des visites en 2-3 jours après l’annonce … c’est le retour des sites sans css mais chargés à la fibre !!!!

    Répondre
  21. C’est une bonne nouvelle oui et non
    pour les CMS et les truc tout pret cela va forcer les développeurs à faire un code plus propre
    et surtout plus rapide
    quand on voit le nombre de requetes pour une page sous Joomla, cela va certainement y améliorer
    pas de suite bien sur, mais le core team du CMS en question va se pencher sur le probleme
    c’est certain
    par contre je rejoins le commentaire un peu au dessus
    ou la pertinence et la qualité du site n’est pas une affaire de rapidité
    parfois il y a aussi des petits sites, qui sont des « pépites  » surtout sur les hebergeurs gratuits comme free ou d’autres
    et la on peut pas faire grand chose pour la rapidité.

    le critère de rapidité est prise en compte c’est clair, mais pas dans une mesure importante.
    je ne pense pas qu’il le devienne sauf pour les sites ultra lent

    🙂

    Répondre
  22. @Jimmy: Je ne pense pas que le fait d’avoir AdSense pénalise quoi que ce soit. Il s’agit de javascript (élément chargé par le navigateur). En gros, les search bots (ex: google) ne les charge jamais.

    Je pense qu’il faut bien comprendre la différence entre bot et un utilisateur standard… La façon de voire et d’exécuter la page est totalement différente.

    à tte,
    denis

    Répondre
  23. Moi concernant les trois sites sous Joomla dont je m occupe je suis en train de réduire la taille des css et javascript… Ya énormément de boulot XD

    Répondre
  24. @belgique referencement : je ne vois pas pourquoi l’analyseur de performance ne tiendrait pas compte des javascripts externes. Au contraire, je dirais qu’il a plutôt intérêt à le faire pour avoir une analyse juste.
    D’ailleurs dans les GWT, les js externes sont déjà indiqués comme source de ralentissement car coutant au moins 1 requête DNS en plus.

    Répondre
  25. Google basait son algorihme sur le choix des internautes, maintenant il le base sur celui a le serveur le plus rapide, et donc qui coûte le plus cher. It’s all about money maintenant. C’ets dégoutant.

    Répondre
  26. C’est sur qu’une page qui s’affiche très lentement le visiteur va vite quitter et voir ailleurs. Je trouve normal que google en prenne un peu compte !

    Répondre
  27. L’intérêt de Google n’est pas le même que celui des référenceurs: le référenceur veut attirer du trafic, Google veut que les résultats de recherche proposés soient pertinents, afin que les internautes continuent à utiliser son moteur.
    La décision de Google est une décision orientée utilisateur : quand un site rame, parce qu’il y a trop de widgets, de pub, de javascript , ou tout simplement parce que l’hébergement choisi n’est pas à la hauteur du trafic, c’est pénible pour l’internaute qui ne reste pas.
    Bien sûr un site lent peut avoir du bon contenu, mais les gens ne le liront pas.

    Répondre

Laisser un Commentaire