High PR Society, ALN, et bien d’autres… Google, tel le RAID dans les grands soirs, a sorti le Uzi pour faire le ménage. Bilan : Plusieurs noms de domaine morts et des réseaux extrémistes de trafic de liens dégommés.
Mais au fait, ALN & co, c’est quoi ? C’est vrai qu’on a pas vraiment d’exemple ici en France et qu’on connait finalement assez peu. Je n’ai d’ailleurs pas vraiment vu passer d’articles sur le sujet, ni avant, ni après la mise à mort. Il s’agissait (et s’agit) de réseaux de blogs qu’on va qualifier de publics. En gros, tu payes (pas cher), tu rentres, tu respectes les consignes et tu postes sur des centaines de blogs différents avec, d’après les différentes analyses que j’ai vues, une majorité de PR3 et PR4. C’est quand même pas rien.
Le prix était vraiment accessible, cadeau même, en rapport avec le produit proposé. J’ai failli le tester, puis devant l’obligation de contenu en Anglais, la question de la disparition des liens après arrêt du paiement, et d’autres points peu clairs et pas nets pour moi, j’ai lâché l’affaire. Bien m’en a pris au final. D’ailleurs, il est évident que certains ont testé sur la scène française. Donc n’hésitez pas à nous faire part de votre expérience et à me corriger si j’étais à côté sur ma description.
Ce qui m’intéresse et ce qui doit nous intéresser, c’est quels sont les points qui peuvent mettre ces réseaux à terre. Je reprécise, nous ne sommes pas là pour chercher LA cause mais pour se prémunir contre LES causes possibles. On va donc essayer de produire plusieurs hypothèses pouvant conduire à une désindexation de réseaux blogs, l’objectif étant d’éviter de le faire manger nos potentiels blogs privés.
Restons les maîtres du jeu
C’est le jeu du chat et de la souris, du gendarme et du voleur. Il faut bien comprendre que la technologie SEO avance plus vite que celle de Google, au moins sur une petite partie. C’est assez simple à comprendre dans la mesure où Google pratique justement très souvent, son rôle de demi-dieu en sanctionnant plutôt qu’en valorisant des catégories de techniques On ou Off site. Tu étais un comparateur ? Merci d’être passé. Tu disposes d’un site à contenu multi-thématique ? Merci, tu avais bien bossé. Ton annuaire ? Désolé, retourne avant 2008.
Sauf qu’en terme de SEO pur pour un site Internet cible, nombreux sont ceux qui oublient de diversifier leur linking. Pourquoi se faire chier à poster ailleurs, alors que là où je suis, c’est pas cher, facile et ça marche ? En fait, ça devrait être presque un avertisseur. C’est pas cher, facile à mettre en place et ça cartonne ? Change de stratégie mec, ton gros gâteau va se faire bouffer, et toi avec. Bien sûr j’exagère, il ne faut pas se jeter du navire tant que la barque flotte. Mais quand tu es nombreux à migrer vers la réussite, tu peux couler. Dans certains cas, ça me fout la gerbe, mais en SEO, on va essayer si on peut (temps / budget) de se poser pour réfléchir.
Ma question est donc la suivante : qu’est-ce qui fait que, sur ce type de stratégie de réseaux de blogs, à petite ou grande échelle, tu peux te faire dégager comme un malpropre ? Je vais émettre des hypothèses assez réalistes en prenant plus ou moins comme base ces réseaux de blogs US.
Facteur 1 : Google est un humain
On a souvent tendance à l’oublier, mais avant d’être un algo monstrueux, Google c’est des humains. Il me semble que sur High PR Society, il était noté peu ou prou la chose suivante :
Nous ne donnons pas les URL des blogs à notre disposition. Libre à vous une fois inscrit et après avoir posté de chercher à les repérer.
Google est certes parfois une grosse tanche, mais les humains derrière sont loin d’être des abrutis. Qu’est-ce qui empêche un Quality Raters de s’inscrire sur ces réseaux, de faire du lien et / ou des vieux footprint dans ses spins pour ensuite découvrir le réseau et demander son blacklistage ? Absolument rien. (et ne croyez pas Google quand il vous dit qu’il n’intervient jamais manuellement. Il aime vous faire des blagues)
Lancement en grande pompe, mailing à gogo, discussion partout sur les forums SEO américains… Drôle en fait. Et comme dirait L.jee, faut pas forcément être hyper malin pour annoncer « SEO » sur une plateforme où on peut poster du lien facile. Sur ces réseaux de blogs US, c’était pareil, mais en pire.
———-
Facteur 2 : La qualité du contenu
Non, je ne parle pas de pertinence. Qu’on se le dise directement, Google ne peut pas détecter si un contenu est pertinent ou pas. Il se sert d’autres facteurs que le sens en lui même, forcément.
Bref, on ne parle pas de pertinence mais davantage de Duplicate Content. Ces réseaux fonctionnaient à partir de MSpin. Et des MSpin postés plusieurs centaines de fois avec des générations aléatoires, évidemment, à un moment donné ça passe pas. Le Texte A est similaire en bonne partie au B, le B au C, le C au D, le E au Z, et tes textes sont morts. Il suffit d’utiliser trop de variations de spins de manière archaïque pour tout griller.
Si Google détecte le Duplicate, il ne lui faut pas grand chose pour repérer plein de blogs en mode « linkwheel de duplicate ». En tout cas, c’est une possibilité, surtout quand on connait l’importance que Google attache au contenu.
Pour appuyer cette thèse, je suis tombé sur des témoignages de mecs avec des blogs privés, qui, à priori avait bien tout fait, sauf ce point là. Et on ne parle pas de pénalités, mais bien de blacklistage.
Facteur 3 : La linkwheel du niveau
Prenons mon facteur 1 dans lequel je prétends que Google est un humain. Admettons que tu disposes de ton propre réseau de blogs privés. Qu’est-ce qui lui empêche de suivre tes liens à la mano ? Si tu as laissé la boucle ouverte, tu n’as plus qu’à prier qu’il ne soit pas tombé en premier sur ton blog de départ. Dans le cas inverse, j’ai envie de dire « game over ». D’ailleurs, sur sa Home Page, High PR Society écrit la chose suivante :
La plupart de ces réseaux ont fait des erreurs fatales, dont l’interconnexion entre ses sites
Bon, pour le coup, pas sûr que High PR Society ait vu juste puisque eux aussi ont clairement souffert.
Il faudrait vraiment que Google ait rien à foutre pour venir tester ton réseau de 2 blogs et demi, mais sait-on jamais. Un conseil : plus vous séparez les sites et les réseaux, plus vous sécurisez.
Facteur 4 : la question des liens
En vrac pour ce facteur là :
- Trop de liens en rapport avec la taille du contenu
- Des liens sur des belles ancres sur chaque page
- Un très grand nombre de liens sortants
- Un très grand nombre de liens sortants sur un grand nombre de sites très différents
- Grosse faiblesse sur le nombre ou la qualité des liens entrants
Ici, on est complètement dans le genre de plateforme qui ne peut pas servir à autre chose qu’à faire du lien. Attention, ce facteur en soi n’est pas sanctionné automatiquement, mais ça reste d’après moi un beau facteur risque.
Facteur 5 : les IP
Sur sa Home Page, High PR Society écrit la chose suivante :
La plupart de ces réseaux ont fait des erreurs fatales, dont la non-diversité d’adresse IP
Bon, pour le coup, pas sûr encore que High PR Society ait vu juste puisque eux aussi ont clairement souffert, malgré la mise en place de ce facteur.
Il est clair que les blogs ont rarement des adresses IP uniques sur des Classe C. C’est plutôt cher, et on est en galère d’IPV4. En même temps, je préfère clairement être noyé dans de la masse sur un mutualisé, mais ça c’est personnel. Le top serait un hébergement qui propose de nombreuses IP, pas chères, et noyées dans une masse de sites si possible en majorité clean. J’ai vu que l’ami Zikaba cherchait ça et ça m’intéresse. Vous avez ça sous la main ?
Je ne cherchais pas forcément à être exhaustif. Il existe d’autres facteurs possibles qui peuvent faire partie d’une somme d’éléments qui vont entraîner une sanction : CMS, dates de publication, mise en forme,… A vous de chercher à paraître le plus naturel possible, même si je connais extrêmement bien la problématique du temps et / ou du budget. D’ailleurs, faut que j’aille bosser moi.
Je ne peux m’empêcher de faire une comparaison avec les sites de CP. Même si la problématique est différente, on peut aisément remarquer la proximité de certains critères avec ces blogs privés US mais aussi l’éloignement sur les autres points. De quoi être à la fois rassuré mais aussi de quoi comprendre qu’il va falloir penser à évoluer pour éviter certaines problématiques.
Dans ce mur de blogs qui s’est écroulé, de nombreux money sites ont fort logiquement grandement soufferts. On va essayer de faire différemment côté français.
Crédits photos : expertinfantry – Gavin St. Ours – slopjop – JD Hancock – laffy4k – ElvertBarnes
Il est clair que rester sur des réseaux identifiés comme « inorganiques » est dangereux, surtout lorsque ceux-ci ne nous appartiennent pas.
Pour réussir, il faut rester discret et ce n’est pas une nouveauté. 😉
Excellent article, on en a beaucoup entendu parlé ces derniers jours mais personne (à ma connaissance) n’avait fait un article sur le sujet. Ca permet de comprendre un peu mieux même si les différents points exposés paraissent logique.
Est ce que ça va arriver en France, j’ai un doute… Quand on regarde des réseaux de CP ou splog, les reco sont toujours les même (différentes IP, pas de duplicate…)
@Aurélien @seofever : Exactement. Pas de surprise, que de la logique. Même si effectivement la grande échelle permettait de limiter les coûts, il suffisait de réfléchir 30 min sur le sujet pour se dire qu’à la fin, la chance que ça pète était assez costaud. Rien que le facteur 1 me semble être d’une logique implacable.
Pour ce qui est de CP, je ne serais pas aussi catégorique que toi seofever. Si je reprends mes facteurs, le 3 et le 4, on les retrouve plus ou moins. Attention, on est très loin du réseau de blogs, mais il ne faudrait pas qu’on se fasse liquider tout ça. Autant faire au mieux.
Très intéressant, mais pas très rassurant. A se demander si même les sites « légitimes » de CP ne sont pas exposés à ce type de sanction. Je me demande si mon Sitebuzz ne risque pas de se trouver dans ce cas un jour…
Les site liés aux campagnes de blasts en masse sur des blogs auto-approuvés risque de dérouiller. Selon moi, le risque est le même pour les CP. Je me demande si un site de faible ou de moyenne audience lié à des grands réseaux sera perçu comme « non naturel » et sera donc santionné automatiquement. Ce qui n’est pas un critère de pertinence.
amicalement
@Eric : C’est effectivement la question. C’est bien pour cela qu’il me semble judicieux de faire évoluer les sites de CP, même si la trame reste forcement là même. Un site de CP reste un site de CP. J’en parlerai possiblement d’ici quelques semaines.
Je pense qu’il fallait surtout montrer aux gens que Google avait encore la main sur son moteur. On remarque bien,et tu le dis si bien que ce réseau clignotait comme un sapin de Noël, il aurait été absurde que Big Brother ne lui coupe pas la tête. C’est comme pour toute stratégie, diversification et réflexion.
Un site de CP ne risque pas grand chose s’il sait rester under the radar.
Tout est question de dosage et de discrétion.
Le problème de ce genre de site est toujours leur taille, du moment ou ça marche tellement bien qu’ils deviennent surexposés, un joe de google se penche sur leur cas. Or c’est difficile car c’est la popularité et la taille du bousin qui lui donne de l’intérêt…
Il faudrait des coalitions sous-marines de SEO, qui partageraient leurs réseaux non liés entre eux à part via les mails qu’ils s’envoient.
Il faut monter une société secrète un peu comme la franc-maçonnerie, ce serait la Franche-Seotery, je recrute d’ores et déjà, contactez moi!
Retour très interésant, on parles souvent de la diversification des IP et toutim, je pense qu’il faut aussi diversifier: hebergeur/mutu/dédié/registar/cms/ (ça devient plus complexe à « gérer » mais plus complexe a tracer évidement).
@Lionel: Les site liés aux campagnes de blasts en masse sur des blogs auto-approuvés risque de dérouiller
Je ne suis pas spécialement d’accord , appliquer une règle de ce genre c’est ahma beaucoup plus complexe que ça, google ne peut pas connaitre l’origine du blast sans analyse précise de l’auteur (analyses précises => coût énormes) . Si c’étais le cas, tu ferait des gros blast bien crasous sur tes concurrents pour les faites disparaître…. pas cool et là sur que la « qualité » de la toile en prendra un gros coup, c’est pas l’objectif de Mr G.
On revient à la période des fermes de liens !
Des fermes qui se veulent « évoluées » et discrètes dans un premier temps puis au final c’est la sanction 🙂
Si on pouvait revenir en 1998, créer un site, le mettre en ligne, aucun backlink mais des visites car peu ou pas de concurrence ça serait chouette !
Gael
A chaque fois que tu nous sors un article c’est vraiment de la bombe ! Je te tire mon chapeau !
Il est vrai qu’interliker ce type de site est vraiment une très mauvaise idée. Et pourquoi ne pas utiliser le thème par défaut pour rester en dessous du radar, quit à ce que le site soit moins bien optimisé ?
Et sinon, j’hallucine toujours autant sur tes photos d’illustration 😀
La 1er grosse erreur est de prendre Google pour un bot sans cervelle. L’option de facilité en est une 2ème. Faire le mouton une 3ème. Mais restons positif, passer sous le radar de Google est encore possible et le SEO n’est pas encore mort 😉
Encore une fois, ne pas tomber dans le piège de Google qui dézingue de gros réseaux bien connus aussi pour faire peur…
Maintenant, tu donnes d’excellents conseils et de bonnes pistes pour brouiller au maximum les signaux envoyés à Google.
Bref, avoir son réseau privé de blogs, c’est un investissement qui vaut à mon sens le coût. Utiliser à deux ou trois 100 ndd toute l’année juste pour mettre ses liens, en thématisant chacun de ceux-ci, en brouillant les pistes, en évitant les linkwheel, bref, en restant sous le radar, ce n’est pas à mon sens un investissement inutile.
Un réseau public est forcément beaucoup trop exposé.
Par contre, un bon réseau privé c’est que du bonheur.
Mon billet sur la LinkWheel http://www.laurentbourrelly.com/blog/995.php est peut-être trop dense à comprendre pour certains, d’après les retours que j’ai eu, mais pourtant ce sont les conditions obligatoires pour ne pas faire le goret.
Je suis d’accord avec LaurentB … Utiliser les services de ce type de réseaux publics c’est se tirer une balle dans le pied. Le bénéfice ne peut être que de courte durée et le retour de bâton est quasi certain. Je comprends pas qu’on puisse mettre en péril ses sites d’une telle manière. En fait, je comprends surtout qu’il faut pas laisser ses sites entre les mains de SEO qui font ce type d’erreurs 🙂
PS : L’article de commentaire de LaurentB est une tuerie! Exactement ce que je cherchais depuis quelques jours, merci
Un bon travail propre fait toujours la différence et il faut parfois mettre le prix pour avoir un contenu unique des IP differentes… mais bon le référencement ce n’est pas facile 😉
On lit pas mal de trucs en ce moment sur le mort annoncé des sites de CP… Ça doit venir de la longue liste de services qui ont chuté récemment (gentiment relayée par Bertimus, nous permettant d’y voir très clair).
Il ne faut pas trop oublier qu’on a des répliques mensuelles de Panda… Peut-être que nombreux d’entre eux avaient laissés passé trop de DC… Je crois que les CP à la française (en tout cas les bons, y’en a) ont encore de beaux jours devant eux… (hey, vous savez quoi, il existe encore quelques bons annuaires généralistes fr)
Par contre, siouplais, ne flinguez pas tous les CP avec des splogs pourris… :-/ moi si je grille, la cible des liens sera juste une jolie erreur 404 😉
Hello,
On trouve dans ce billet une analyse très fine sur la partie « liens » que je partage pleinement. Augmenter le niveau de qualité de ses sites demande une modification de la structure du CP autant que d’autres critères SEO, comme la dés-optimisation et le classement thématique.
J’ai bossé pour un moteur qui n’est pas Google, mais je doute que le fonctionnement soit différent. Je confirme donc ce que dit Samuel : il y a évidemment des humains derrière, mais ce sont les trucs vraiment louches qui sont suivis et investigués en profondeur (il faut que ça clignote d’un peu partout, et il y a des outils qui permettent de voir ça rapidement).
Pour les CPs, une dégradation est tout à fait possible mais je doute que tout saute, pour la simple et bonne raison qu’il y a du vrai contenu dessus. D’un point de vue pertinence et qualité, un CP bien tenu passera entre les mailles du filet parce que le boulot d’un QR n’est pas d’investiguer mais de juger d’un contenu pour une requête donnée (et de la gueule générale du site, pour en déterminer la crédibilité).
Même si certains sites de CPs mal gérés mettaient le feu aux poudres, le pire qu’on puisse imaginer c’est une légère dévaluation de ce genre de site. Par contre un gars qui possède tout un réseau de CPs et qui n’est pas sérieux, celui-là risque en effet de se réveiller un jour avec une mauvaise surprise s’il a attiré l’attention de quelqu’un de la Search Quality.
Tres tres tres tres bonne analyse de la situation en general a savoir ces blogs US que perso je n’ai jamais utilisé (et oui ca me dérange d’avoir une laisse dans le c*l du type « si tu paye plus t’as plus de liens » Et c’est d’ailleurs ca leur plus grosse erreur a mon avis) mais aussi par rapport aux sites de CP qu’on connait tous et qui vont surement devoir s’adapter un chouillat histoire de rester assez bas sous les radars
Très bon article qui peu résumer les raisons d’une telle chute pour un réseau de blog. Une hypothèse supplémentaire, peut-être que si le contenu était mauvais, il y avait un mauvais « pogosticking » et ça à servit de mauvais facteur qui a fait chuté les blogs.
Quel article! Lu de fond en comble. L’article de la semaine sans problèmes!
Il serait peut-être intéressant de faire des échanges reciproques d’espaces sur des serveurs. Chacun bénéficierait d’IP différentes et de config serveur tambien.
C une idée com ça mais je pense que ce peut-être une solution pour pas se faire griller le réseau.
What do you think? +++
Ne pas se jeter du navire tant que la barque flotte mais rester bien conscient qu’à mettre tout ses oeufs dans le même panier on se sacrifie sur l’hôtel de l’oncle google le jour où le panier tombera. Ou devrais-je dire le couperet.
Allez on va essayer de faire différemment. Ou pas : mais l’important est de savoir à quel jeu on joue. Quand le glas sonnera (je suis chaud sur les expressions aujourd’hui) certains sauront en tirer profit tout en étant les cibles.
Très bon article, ces deux études de cas US sont très intéressantes. Je trouve normal de mon point de vue qu’ils aient été pénalisé. C’est vrai que les CP Fr de manière générale sont bien plus cleans, en revanche Google va renforcer son algo pour repérer et pénaliser bon nombre de sites de CP qui sont à la limite du raisonnable.
La grosse limite qui se pose avec les sites de communiqués est que la très grande quantité de liens sortants vers un très grand nombre de sites est irréversibles. Mais dans ce cas, que peut-on dire de nombreux sites sur la toile ? Google peut il se permettre de sanctionner tous ces sites ? Je ne pense pas… c’est la que d’autres facteurs vont entrés en jeu pour qu’il détermine tous les éléments qui constituent un site entièrement dédié au SEO avec « une faible valeur ajoutée » pour les lecteurs.
Quand tu gères un réseau et que tu fais tout pour bien le faire, tu as toujours des utilistateurs qui finissent par te le pourrir par {fainéantise|manque de rigueur|manque de conscience|je m’en foutisme|incompétence}. La fin est souvent la même, soit t’es grillé, soit tu es découragé…
Pour des ip de class C différentes sur du mutu tu peux jeter un oeil à http://www.seohost.com
Ils proposent des C class dédiées ou partagées
Je teste actuellement plusieurs prestataires pour de l’hébergement. Clairement c’est pas top, pas assez noyé dans la masse. OVH est vraiment bien pour cela, mais pour avoir des IPs différentes, faut attendre que les Mutus se remplissent, et c’est long, très long :'(
PS : merci pour le lien, même si une ancre optimisé aurait été préférable (Zikaba, et pas Zibaka ^^)
100% d’accord avec tout ce que tu dis. Pour ma part j’ai toujours pensé qu’il ne fallait pas trop linker dans le même panier que les autres. Exemple type : LFE. Formaté pour du WP Multisite il n’y a rien de plus facile pour Google que de repérer ces réseaux où les splogs sont invariablement des sous domaines avec des footprints WP qui font la taille d’un autobus. Avec souvent des ancres pauvres uniquement dirigés vers le moneysite ou vers les autres splog.
Je dirai « C’est facile ? Full auto ? Tu ponds un MasterSpin en 1h ? Change de stratégie mec »
Wow, que de commentaires constructifs ! Quelques questions ou remarques en vrac :
@Nico : J’avais posé la question des blasts sur les CP. Certains sont pour, d’autres contre… J’ai eu aussi une conversation avec un collègue SEO qui me disait : « Je vois pas l’interêt de faire du CP si on ne peut pas blaster dessus ». Il n’a pas forcement tord dans sa logique.
@SEOFactoryGirl : Assez d’accord avec toi et je rejoins ton avis, même si il me semble qu’il faut savoir évoluer. D’ailleurs, qui n’évolue pas en SEO se casse la gueule.
@Fab : Pas bête pour l’échange d’espace serveur, mais à mon avis, c’est un bordel à gérer pour tout le monde (temps, accès, qualité, confiance, équité…). Mais ça peut être creusé.
@Julien : Merci ! Mais ça fait chier que les mecs s’appellent « seohost.com ». Ca sent les multiples sites dégueulasses dessous. 🙁
@Zikaba : Si tu trouves, hésite pas en m’en parlé ! PS : Va falloir que tu m’expliques pourquoi sur ton Skype c’est « Zibaka »… 😉
Rien de nouveau, finalement Google change son algo, les amateurs de SEO s’adaptent trouvent de nouvelles solutions pour le référencement, avec des solutions « borderline », et Google modifie ses critères, pour contrer. Ce système de blog à marché un moment, il a permis à certain de placer leurs sites facilement, maintenant il doivent trouver une nouvelle solution.
Par contre les sites qui ce placent « naturellement », même si on les aident beaucoup restent en place malgré tout les changements du Big Boss des moteurs de recherche. Il faut avouer que faire un vrai référencement pseudo naturel et beaucoup plus long et fastidieux que de spammer à tout va, mais au final c’est une solution pérenne.
Très bon article. Ce que je retiens surtout c’est que, comme tu le dis, quand c’est facile, pas chère et que ça rapporte beaucoup de jus, un moment ou un autre, ça va tomber. De toutes les façons, rien n’est donnée gratuitement (ou alors c’est vite repris).
Le référencement c’est bien, et ça marche ! Mais toujours se mettre à la place de Google : si c’est trop, ça ne sera jamais bon sur le long terme.
Héhé, c’est vrai qu’il y a du bon comment. chez toi !
Concernant les blasts sur les CP, j’ai l’avis inverse de ton collègue. Pour moi, c’est aussi simple que ça : est-ce que les bons BH blasts directement leur propre money sites ?
Pour moi, mes CPs sont des money sites à part entière (sinon je ne les bosserais pas comme ça), et pas un simple WordPress dézipppé hébergé sur un mutu Ovh que je balance sur SEOsphère pour avoir du contenu gratos. C’est le genre de non-stratégie qu’on voit beaucoup… pas étonnant que certains sites de CP tombent…
Mes CPs bénéficient tous d’une campagne de com. grand public et d’un linking white (only). Voilà l’intérêt de faire du CP (chez moi en tout cas) : obtenir des liens propres et white. Si le gars veut booster le CP et par la même occasion, l’activité cible, il peut faire un lien dans un autre CP propre (autre plateforme), il peut partager le CP sur G+, ou faire un tas d’autres choses…
Blaster ses CP propres, avec contenu payé à prix d’or, et risquer de faire griller la plateforme par Google ? C’est de ça que je doute de l’intérêt… 😉
On ne va pas lancer le débat black ou white. Je pense que le black hat est une bonne corde à avoir à son arc si bien utilisé. Liens black vers site satellite propre, liens du site satellite propre vers money site…
C’est toujours la même histoire et c’est à croire que les gens n’apprennent jamais rien. Allez, l’histoire en quelques étapes :
– Quelqu’un trouve une bonne idée SEO. Il l’utilise d’abord pour lui, puis il se dit qu’il peut plus en profiter en la vendant, la répliquant, etc. Ou il se fait simplement copié
– De plus en plus de gens connaissent et utilisent l’astuce
– Des porcs commencent à l’utiliser à la bourrin, avec la logique « plus j’en mets, plus de rank »
– Google en a marre et fait tout sauter
Google, c’est des mecs balaises. Je suis persuadé qu’il ont des taupes un peu partout dans les réseaux SEO et qu’ils sont à la pointe sur la plupart des trucs. Mais quand c’est utilisé par 10 personnes, ils ont d’autres choses à faire que de bloquer le truc. Dans le fond, quand tu gères des milliards de recherches par jours, quelques astuces SEO te font ni chaud ni froid. Mais quand plusieurs millions de personnes les utilisent, tu commences à te dire qu’il faut faire le ménage… Et bim!
C’est une forme de darwinisme à cons… ^^
@Nico : Ton point de vue est aussi valable que le sien. D’ailleurs, je suis au milieu. Comme je te l’ai dit, je vais faire du CP niquel, et du CP souple.
Cependant, une difficulté qu’il ne faut pas oublier, c’est la problématique du trie sur ce que je fais avec l’un ou avec l’autre, autant en interne qu’en externe.
Faut pas oublier non plus que je peux envoyer du gros ping bien visible sur du CP concurrent et balancer ensuite pour scratcher son boulot. 😉
@Sébastien : C’est un peu ça effectivement. C’est pour ça que l’évolution (pas la révolution) des plateformes est peut-être primordiale.
Tant mieux les sites de CP pourrissent le net pour rien .. Ok çà marche vite fait pour faire monter un site mais voilà quoi , mieux vaut faire du vrais contenu sur son site que passer du temps à rédiger même des spins pour de CP
Dans vos cul !
> Ton point de vue est aussi valable que le sien.
Yep ! L’idéal, ça doit être de faire les deux, comme toi. 😉 Mais bon, pour ça, moi, il faudrait que je me dédouble 😀
Oui, on a beau dire que la frontière entre white et black hat se réduit, je pense quand même que les réseaux de blogs massifs sont quand même très clairement à éviter car dangereux…
Je pense que c’est la taille qui fait toute la difference. A partir d’un certain nombre de blog et posts il n’est plus possible de cacher quoi que ce soit. Ou alors le boulot a faire fait que le ROI est très bas. L’idéale est plutôt de monter beaucoup de petit réseau de sites à thèmes.
Interlinking, DNS privés, Spam team pouvant s’inscrire et récupérer une partie du réseau,… Taux de nouveaux articles par jour, Duplicate Content detectable, etc.
Bref, ce genre de réseau n’est pas forcément compliqué à détecter, et la spam team en a bien profité pour se faire un joli coup de publicité.. 🙂
Bonjour,
Clairement, je trouve que le point 4 sur les liens relève tout simplement des liens non naturels et donc identifiables par Google sans trop de difficultés. Vaut mieux essayer de récupérer des liens naturels un peu au début avant le reste.
Par contre, pour les IPs, quand on pense aux serveurs mutualisés, on peut tout à fait se retrouver sur la même IP d’un autre site dont on détient les droits sans le vouloir. Il faudrait donc choisir un hébergeur différent pour chaque site pour être sûr mais c’est souvent peu arrangeant de s’habituer à plusieurs hébergeurs.
En tout cas, l’analyse est intéressante et il va falloir trouver de nouvelles astuces pour éviter de se faire sanctionner par Google à l’avenir.
Excellente analyse, je ne connaissais pas ce système de réseaux de blogset ce qui était arrivé. En tout cas ça conforte l’idée que j’ai, qui est de bien diversifier ses sources de bl mais aussi ses sources de trafic.
C’est vrai que Google est un homme, il tweete il fait des communiqués, il manage ses employés, il tient même un blog! Je crois qu’il s’appelle Matt Cuts… En tout cas pour le SEO!
Google détecte les fraudes en essayant de trouver comment frauder son propre algorithme, il y a certainement une team black hat chez Google.
Beau travail, tu m’étonnes que tu dois décrocher et aller bosser pour toi !
beaux échanges et partages d’idées et de points de vue… c’est ce que l’on appelle une discussion constructive.
il y a effectivement beaucoup à creuser, explorer, partager et c’est cela qui permet à notre métier de rester en mouvement !! 🙂
Keep searching is it keep learning ?
bien à tous !
Je pense que les réseaux tombent 1 par 1 et que google les as dans le collimateur !
être présent dans ce genre de réseaux et le meilleur signal pour dévoiler à Google no technique BH 😀
Un peu comme un dealeur qui accélérerait à fond devant une patrouille de flic ,)
Superbe analyse. Pour le cas High PR Society on s’aperçoit qu’ils l’ont joué un peu « bourrins » avec une non diversité des IPs et tous les blogs liés entre eux.
La conclusion de ce type d’évènement est la nécessité de varier ses sources de liens (et de trafic) car ses derniers mois ont montré que de grands changements pouvaient opérer.
En fait, il y plein d’astuces malhonnêtes… que google s’efforce de détecter progressivement et de « censurer »… du coup, en plus de ces méthodes à l’efficacité, au moins courtermiste, prouvée, il est important d’avoir du propre en quantité.
Belle analyse.
Finalement, toute stratégie SEO repose sur une bonne analyse des risques, et ceux qui sont données la servent pour la réaliser. Après il y en a d’autres (qui ne devient pas parano en SEO, c’est une vaste question).
De mon coté, je prefere tout posséder pour pouvoir justement tout contrôler, même si clairement cela demande du coup beaucoup plus de temps pour atteindre les sommets !
Je suis d’accord pour le contenu, c’est extrêmement important. La qualité du contenu sur le site surtout, mais aussi la qualité du contenu auteur des liens mis en place lors des actions de backlinking !
Logique !
Même si ça emmerde pas mal de monde, il va falloir caser du lien sur des vrais sites. C’est terminé les fermes de contenus qui ne servent pas aux internautes.
Bien entendu, ça va un peu compliquer les règles du jeux, mais le SEO n’en sera pas moins intéressant. Au contraire 😉
Bonjour,
Sympa l’article, ça me fais un peu de peine pour les Communiqués de Presse car je commençais seulement à bien m’en servir, mais bon c’est le jeu aussi, celui qui aura le plus de succès c’est celui qui sera le plus malin. C’est vrai que ça fait penser à la relation Police/voleur, le voleur peut rapporter gros en prenant des risques mais il peut tout perdre si il se fait attraper.
Un grand sage m’a dit un jour que si on jouait avec le feu on risquait de se brûler les doigts.
Belle analyse. C’est clair que le plus dur ca reste d’avoir des adresses IP uniques de classe C. Sinon toujours aussi top les illustrations sur keeg 😉
Bonjour,
En même temps quand on voit le nombre de blogs bidons qui existent c’est normal que google fasse un peu le ménage. Je pense qu’une des façons de ne pas se faire désindexer ses blogs c’est d’écrire de vrais articles uniques de linker avec un peu de retenu. Le résultat est plus long à venir mais au moins on a une structure solide.
Le problème, c’est que, dans tous les cas, en aillant un réseau propre, bien évidemment on limite les risques, mais en 2012, ce qui pénalise, c’est : un site crade / un site dupliqué / un spam report. On peut avoir un réseau de blogs/sites/CP/annuaires propres, du moment où en quelques minutes on peut voir que la majorité des liens d’un site est artificielle, on risque la pénalité.
Et en 2012 + que jamais, je pense que la prudence doit se faire on page. Google veut proposer du bon à ses internautes, alors nous devons proposer du bon à Google.
Que va faire Google si un site leader dans sa thématique, ultra propre on page, apprécié par ses users, est spam reporté pour « liens factices » ? Ca m’étonnerait que Google se tire une balle dans le pieds.
Beau travail résumé, j’insiste également sur la qualité du contenu ainsi que les liens. En ce moment google est à la chasse aux liens et au contenu avec google panda ! Et on observe des chutes au niveau du classement des sites sur google ! N’hésitez pas à créer du contenu de qualité pour les internautes et non pour les moteurs de recherche !
Toujours des illustrations qui vont bien par ici en effet ! 🙂 Il y a quand même quelques sites de CP qui sortent leur épingle du jeu … c’est toujours une question d’empreinte !
Merci pour le compte rendu et je suis assez d’accord sur les causes que tu relayes. Je ne suis pas sûr que ce soit la densité de liens/contenu mais plutôt l’absence d’articles vides de liens.
Bonjour,
Ce qui confirme mon choix de diversifier mon netlinking et de ne pas faire appel uniquement à une société de référencement.
Merci pour cet article qui ma beaucoup éclairé.
C’est vrai que certain qui avait basé leur technique seo la dessus on du avoir de mauvaises surprises! d’où l’utilité de ne pas mettre tous les oeufs dans le même panier !
Merci pour cet article. Le facteur qui maintient la survie du blog est sa mise à jour et l’entretien apporté a celui ci. Mais plus que tout de ce coté la, il s’agit d’une question de contenu et j’admets que de ce coté, les outils sont la pour vous aider.
« Et plus dure sera la chute » comme dit le dicton.
J’ai du mal à comprendre le fait d’accepter de louer du lien, je ne connaissai pas high PR society mais d’après ce que suggère ton article c’est un peu de cela qu’il s’agit.
A quoi sert de baser son linking sur des liens qui du jour ou lendemain peuvent disparaitre si l’on ne paye plus l’abonnement? Autant acheter du adwords dans ce cas là.
J’en avais vaguement entendu parlé et voila que j’ai l’explication.
Mais, même si je suis une quille en SEO et m’informant via les forums et blogs à ce sujet, je n’ai pas l’impression qu’il y ait de tel réseaux en France ou en europe en général. Peut être que je me trompe.
Mais du coup, est ce que google va commencer à « pénaliser » la suroptimisation pour le référencement (trop de BL d’un coup, trop de mots clés etc)?
Excellent topo! Il me semble de plus en plus clair que l’algo n’évolue pas ou très peu et que ce sont simplement des petites mains humaines qui décident de défavoriser ou non des réseaux. Quand on pèse plusieurs dizaines de milliards de dollars, on a largement de quoi se payer une grosse équipe dans chaque pays pour faire ça.
Ca résume plutôt pas mal le problème, mais c’est pas la 1ère fois qu’un réseau tombe, et ce n’est pas la dernière. Comme toujours en terme de SEO BH (ou limite), c’est le jeu du chat et de la souris, les SEO vont un peu changer leur tactique, Google va se développer, sanctionner du monde, les SEO vont devoir changer à nouveau…
Excellente analyse : l’avenir du cp semble s’orienter vers les réseaux de cp privés.
Parce qu’un WP gratuit dézipé nommé communiqué-seo-qui-envoie-du-bois.com, c’est un peu grillé désormais 😉
Il y a monstre de commentaires ! Bravo Keeg, tu as fait réagir la sphère SEO!
Il y a effectivement des réseaux privés de CP qui se montent en France (avec d’ailleurs de droles de modèles économique cf SEO Sphères).
Quand on sent que c’est pas mal louche, il ne fqut pas prendre le risque de faire cela sur le site principal mais sur des sites tampons.
Tant que je ne remarque pas de sanction envers les sites de CP, je continuerai à les utiliser ! Mais c’est sur que je suis à l’affût du moindre mouvement de GG…
Je n’arrête pas encore et encore de faire la même remarque… Concernant le Spin, c’est clair que si ce dernier n’est pas fait dans la règle de l’art, il sera considéré comme du duplicate, ceci dit ça toujours son poids et ça nous évite d’écrire un nouveau à chaque fois. Excellent article by the way
Tout le monde s’extasie sur les sites de CP, mais je sens qu’ils auront le même avenir que les annuaires… La qualité de contenu reste le meilleur moyen de linkbaiting.
google est à la fois un humain et un robot donc on peut dire que ce n’est ni un humain ni un robot….. c’est un cyborg !! (parenthèse humour)
Non mais plus sérieusement je pense que la base est d’avoir un contenu de qualité et original. Sur le court terme un référencement sauvage sera plus efficace mais sur le long terme google saura trouver les tricheurs. Tout vient à point à celui qui sait attendre.
C’est un peut comme mettre tous ses oeufs dans le même panier. lorsque le panier tombe tout est perdu.
J’ai compris cela lorsque le géant m’a privé l’accès à mes blogs sur fameuse plate forme.
Il faut toujours comme tu le dis mieux vaut être discret
Il ne faut jamais sous estimer Google, même si on peut le tromper un temps, il arrive toujours à rattraper ceux qu’il vise…donc il faut soit rentrer dans le rang, soit être encore plus malin ce qui est quand même tendu sur le long terme.
super article! surtout avec cette bonne manière de rédaction; bravo.
moi aussi j’ss d’accord avec vous (un bon contenu attirent plus des visiteurs qu’un site sans intérêt. logiquement . merci
Super bonne analyse. Et je confirme bien, que 50% des liens entrants de mon blog sont diversifiés, la majorité en nofollow depuis les partages des réseaux sociaux. Ce qui en fait des liens naturels, ce qui m’a permis de faire en //elle du netlinking en dofollow sans crainte.
Des domaines chez plusieurs FAI différents pointant vers des serveurs différents peuvent aider. Des skyblog et autre blogspot permettent aussi facilement d’atteindre des bon score de pr pour son reseau.
Il y a un bon dicton qui dit: patience et longueur de temps font mieux que force ni que rage. Il faut y aller de manière « naturelle » et pas précipitée. Si on bombarde tout d’un coup, on se fait griller, ça c’est la seule certitude qu’on peut avoir au sujet de google.
Google fait le grand ménage depuis l’été de 2011, avec la suppression de l’index de plusieurs nom de domaine gratuit, l’arrivé ensuite de panda et enfin le redoutable penguin anti site spammeurs . Aujourd’hui il faut se méfier, les techniques classiques de seo sont à utiliser avec précaution.
Mon site nouvellement crée (moins d’un an) n’a pas chuté une seule position, au contraire il en a grimpé quelques unes depuis la dernière mise à jour. La raison, je n’ai fait aucune campagne de linking. Et c’est maintenant que je m’y met doucement, espérant garder cet avantage de positions et l’améliorer.
ça explique pourquoi mon site: jammer-cellphone.com n’a jamais décollé.
Je met en vente le domaine si ça intéresse quelqu’un ^^
A titre d’exemple, j’ai balancé un site sur Google shopping USA, des ventes pleuvaient c’était hallucinant, et du jour au lendemain, plus rien, motif ? Mon anglais sur les fiches produits était mauvais d’après Google ! La réalité, c’était un catalogue Anglais, du pur anglais bien écrit. Vas comprendre …
Merci pour l’info.
J’ai l’impression que qui sème le vent récolte la tempête, les CP qui ont dérouillés n’étaient pas très sérieux à ce que j’ai pu lire à droite à gauche, et pas mal d’entre eux et une grosse partie des sites n’ont pas été atteint par le pingouin…mais qui sait peut-être au prochain petit animal gentil qui passera par là…
Bonjour,
Je viens de prendre connaissance de ton article (excellent) et je dois dire que pas mal
de choses m’interpellent en ce qui concerne la logique du Seo.
A chaque mis à jour google de nombreux sites disparaissent au fin fond du classement.
A chaque fois on repenser aux méthodes SEO , tout revoir ou en partie.
Google est maître du jeu mais pas du monde car le nombreux professionnels du SEo tire leur épingle du jeu.
Bravo a eux.
Google a l’art de rebattre les cartes et c’est a nous de le contrer.
Il va falloir s’y faire et arrêter la simplicité d’acquisition de liens de ces derniers mois … en tout cas ne jamais se contenter que d’une seule manière de créer du link me semble indispensable pour durer dans ses positions….
Quand on voit que Google vient également de blacklisté plus 400 annuaires, on se dit que de leur coté ils ont vraiment déclaré la guerre …
C’est clair qu’il faut maintenant revoir complètement les stratégies de netlinking, les annu, les cp tout ce dont on avait l’habitude est chamboulé. Désormais il faut penser contenu et non quantité de backlinks à pagerank. Je vois sur un de mes sites, a chaque fois que je post un article, le site remonte sur son keywords principal, comme si la prime à la fraicheur servait à tout le site.
Moi je vous dis, méfiez vous du pingouin qui dort car à chaque fois qu’il se réveille, il fait des gros dégâts, déjà 2 fois et la 3ème est proche…en attendant le putois albinos.
Bonjour.
Je suis heureux de tomber sur cet articles qui attise assez de monde vu les nombreux commentaires. Je viens de créer un nouveau site dont le positionnement n’est pas stable.
Je crois que tout cela trouve la réponse dans votre articles. Merci de nous donner de plus amples conseils et informations régulièrement.
Belle analyse, mais à mon avis les réseaux privés resteront encore quelques années des sources de liens de très bonne qualité. La pratique le prouve. Toutefois, les exigences aux réseaux privés seront plus dures, par exemple il faudra les lier et promouvoir dans les réseaux sociaux. Puisqu’un site avec une intéraction sociale égal à « 0 » ne vaut pas grand-chose.
Analyse pertinente et véridique sur plusieurs points. Bref, privilégier le côté « naturel » de notre référencement est aujourd’hui plus qu’indispensable pour réussir à maintenir une bonne position dûment gagnée avant l’ère Penguin ^^ en tout cas, merci à l’auteur pour ces quelques clarifications !
Tout le monde dit désormais, faisons de la qualité, faisons naturel, mais c’est pas ça qui permettra à de petits sites de pouvoir se retrouver en tête de résultats. Les liens naturels en pagaille ca n’existe que pour les énormes sites donc il faut quand même agir si on ne veut pas rester dans les méandres des pages de résultat GG, mais c’est à ses risques et périls…
Oula pas très rassurant tout ça…
Donc en gros vous pensez qu’on peut s’attendre dans un futur proche à une sanction sur les utilisateur de sites de CP (et des sites de CP eux mêmes)?
Comme le dit un commentaire plus haut c’est facile d’avoir du BL à foison pour un gros site, mais pour un petit site à moins de faire un buzz enorme c’est cramé…
Du coup que faire?
Ben.
En gros, il vaut mieux réduire le nombre de BL et en améliorer la qualité, la question est de savoir combien de BL de qualité il faut pour atteindre son objectif, existe il un outil nous permettant de connaitre le nombre de BL de qualité d’un site ? bien sure c’est relatif, mais un service du genre serait très intéressant.
Je pense que si certains référenceurs agissent de la sorte c’est parce qu’ils veulent que leur site reste en vie le plus longtemps. Mais il faut pas oublier que c’est Google qui aura toujours le dernier mot et pour éviter d’entrer dans ses filets, il faut opter pour des BL de qualité, du contenu unique et naturel. Merci pour la pertinence du billet.
Le référencement marchera toujours ainsi : une technique nouvelle, que tout le monde va s’approprier pour qu’ensuite, le grand GOOGLE lance sa croisade et ainsi affirmer en quelque sorte « C’est qui le patron ici ? ». Et du coup, de nombreux réseaux seront pénalisés/blacklistés, etc. Et on recommence du début…
bon article est je suis daccord avec « rambo » — Quand on voit que Google vient également de blacklisté plus 400 annuaires, on se dit que de leur coté ils ont vraiment déclaré la guerre …
C’est pas évident de nos jours, Google veut toujours avoir le monopole sur tout et comme dit dans l’article il veut surtout être un demi-dieu qui décide de tout. C’est Google qui met les gens au chômage après on se demande pourquoi c’est la crise.
Moi je vote pour le critère numéro 2 : qualité du contenu ! il faut avouer que sur les réseaux de base, la médiocrité du contenu les rend extrêmement vulnérable …
Cette MAJ panda c’est vraiment très chiant. C’est vrai que Google se donne des airs de « world company » avec ses critères « anti-optimisation » mais comme tu le dis si bien, c’est un jeu de chat et de la souris. Sauf que dans la vie, c’est souvent le chat qui gagne 🙂 Il va falloir que les souris soient encore plus malines 😀
Bonjour,
Bon je ne suis un tres grand newbie en SEO (voir meme plus que newbie) mais je n’ai pas compris ce qu’etait le ALN.
Tu dis que c’est un site sur lequel tu ecris un article et que cet article est automatiquement duplique dans X blogs?
Si c’est ca je croyais que google sanctionnait depuis longtemps le duplicate contenu?
Toujours la même histoire, à force de trop tirer le diable par la queue, un jour google se réveille et t’en colle une qui fait mal. Mais après tout dépend de ton site, car quand google se réveille réellement, c’est qu’il y a un humain derrière, et je pense que celui-ci prend en compte la qualité de ton travail. Si c’est un travail de bourrin il ne peut pas laisser passer, si c’est un travail équilibré pour des sites qui apportent des choses, alors je pense qu’il n’y a pas de soucis.
Oui ça ne m’étonne pas que ce type de réseau soit blacklisté par google… surtout si ils sont hébergés sur la même adresse ip. D’ailleurs, je pense qu’il est préférable de faire une sélection de blogs manuellement, plutôt que poster sur des blogs pas cher mais avec un gros risque de suspension (en cas de non paiement ou d’abandon du service) Merci pour ce brillant article en tout cas !
Je dois avouer que çà fait peur tout ça :s
Après je pense que n’importe quelle site devrais avoir un blog pour obtenir un contenu pertinent et actualisé continuellement.
Je pense que les plateformes de communiqués de presse sont en surcis en France, et qu’elles vont bientôt se faire sucrer, comme les annuaires. Il est impossible pour une société de produire un communiqué de presse par plateforme, c’est ce qui engendre du contenu dupliqué.
@Loic, un grand nombre de plateformes de CP sont déjà grillées en France si tu parle des publics. Pour ma part je pense que l’avenir des communiqués de presse n’est pas menacé, il faut seulement leur donner une visibilité moindre. Les listes de communiqués de presse sont d’une grande bêtise, c’est du pain bénis pour Google qui n’a plus qu’à faire le tri. Il faut s’organiser en petit réseau autour de thématique précise et tenter d’apporter un contenu réellement unique et qualitatif.
Finalement ce qui en ressort ce sont les erreurs dus à la facilité et aux résultats rapide.
Dans le monde du SEO, il faut d’une part jamais mettre ses oeufs dans le même panier et d’autres part éviter les plans douteux ou tout est trop beau et trop rapide.
Tous ces trucs SEO de blasts et compagnies (non non, je ne citerais personne) vont tomber les uns après les autres. Sauf quelques-uns qui ont pris les devant, et font dans le petit « qualitatif ».
En attendant, on est jamais mieux servi que par soi-même.
Aller, bon dimanche ^^
une fois de plus, Google nous indique qu’il souhaite de la qualité. Ceci dit, il n’a pour l’instant pas de moyens de vérifier la qualité du contenu, si ce n’est par une vérification humaine.
Peut-être que les vérifs manuelles vont se démocratiser ?
C’est vrai que Google est de plus en plus strict sur le contenu et la qualité des liens.
Ca pose d’ailleurs de gros problème dans les secteurs où il y a très peu de lien naturel et on le contenu est très standardisé…
En effet, qui va faire un lien spontanément sur son blog vers son assurance ou sa banque ?
Résultat : Les SERPs ne sont absolument pas pertinentes et ca fait le bonheur de Google Adwords 🙂
Google devient de plus en plus dur, chaque fois que un webmaster optimise un site google cherche toujours le system pour metre a jour son asystem de donee.
Combien êtes-vous prêt à payer pour un article dédié sur un blog banal? Quel critère pour le prix de ce lien 100% naturel?
En fait, ce que j’imagine, c’est une sorte place de marché privé avec des offreurs (les référenceurs) qui émettrait des ordres d’achat du style « je suis prêt à payer xx€ un article dédié poker avec tels ancres pour tel site » et les blogueurs proposerait leurs sites.
L’article serait alors écrit par le(s) bloggeur(s). Ce serait complètement privé et indétectable par Google non ? En tout cas pas avec les facteurs évoqués dans l’article.
Vous pensez qu’il y a une demande de la part des référenceurs? A quel prix pour un lien « à vie » et naturel?
Cette solution résoudrait les 5 facteurs de l’article. Ca permettrait de nettoyer un linking trop « sale » pour les référenceurs.
Pour les bloggeurs du dimanche, ce serait un bon moyen de gagner un peu d’argent. Il y aurait surement une demande, c’est du cash facile… Enfin tout dépend du prix que vous êtes prêt à payer. 🙂
Voila pour l’idée de noobs, merci pour vos retours et pardon si ce post n’est qu’un ramassis de conneries, je découvre à peine le SEO. 😀
Se pose effectivement la question : comment faire pour ne pas être sanctionné tout en assurant un référencement efficace ?
Comme dit dans un commentaire plus haut, c’est facile d’avoir des BL à profusion pour un gros site, mais pour un petit site à moins de faire un buzz énorme c’est la galère…
Personnellement, j’ai récemment acquis (ou plutôt re-développé) 10 sites dont qui pourront servir à acquérir des BL de qualité (c’est à dire des sites ayant 10 ans d’age avec des PR3, PR4 et PR5). Je devrais savoir si cela portera ses fruits dans 3 à 6 semaines…
Arth
Pas compliqué de trouver un blog de qualité et de demander d’y placer quelques bons liens : faut passer par la case banque à mon avis mais ça donne des résultats ! 🙂
@ Ivan :
A quel coût ?
Quelle valeur marchande a un lien aujourd’hui ? J’imagine bien que ça dépendra du site mais je me demande si aujourd’hui, des éditeurs/SEO seraient prêt à payer.
Si quelqu’un connait une place de marché de vente de lien de ce type, je suis intéressé, merci.
C’est toujours pareil. Il est toujours possible d’accélérer son référencement mais à quel prix ? Prix financier et prix sur le long terme. Avec les update de Google à la pelle est)ce que la technique aujourd’hui sera toujours aussi efficace demain.
Je connait un collaborateur qui a sacrément morfler à cause de ces réseaux US. En france, il faudrait un réseau clean et sans interconnexion, mais est-ce que ca sera perenne? Le mieux reste de se constituer ses propres réseaux mais ca demande beaucoup de travail….
Google n’agit plus que par rapport à la qualité du contenu !
Le problème est que pour référencer un site, ca coute cher ! Que ce soit du temps ou de l’argent…
Et nos bonne vielles automatisations prennent du plomb dans l’aile !
on est passé du quantitatif au qualitatif , ce qui demande un effort plus important et déplace le problème ailleurs. Finalement mieux vaut grandir doucement et proprement que brutalement et artificiellement.
Très bonne synthèse, voilà une belle analyse qui va droit au bout et dans les profondeurs des choses…Seulement je dirais qu’on a beau prendre toutes les précautions possibles et imaginables, la qualité du contenu reste néanmoins une arme ultime pour se préserver de toute suppression ou autre bannissement.
Oui la non-diversité des IP est un gros obstacle au développement de ces réseaux. La nouvelle tendance c’est désormais l’échange d’articles entre les sites… Bref, c’est de moins en moins facile d’effectuer un netlinking de qualité… Mais tout comme les autres secteurs, il faut privilégier la qualité à la quantité.
Et donc si j’ai bien compris avec Pinguin nos sites doivent être pertinents de la mort qui tue,
mais par contre aucun backlinks un peu foireux au risque de se faire dégager ?
Donc au final on fait quoi, on reste page 35 en attendant de faire un buzz monstre et que tous les bloggeurs de la terre parlent de vous ?
Faciiiiile !
Salut Keeg,
A quand un nouvel article ici ? Ca fait un bail ! Ca sentimanchote ?
La diversité de lien est la chose que j’essaie d’obtenir depuis peu. Merci pour les autres info. Le positionnement est devenu quelque chose d’ardu !
Bonsoir Keed 🙂
ça fait plus que 6 mois la 🙂 à quand le prochain article ?
Bonjour Keed
Merci pour ce très bon article qui récapitule de manière assez exhaustive les bonnes pratiques à adopter pour un référencement de blog efficace. Je ne savais pas du tout pour la diversité de l’IP et je pense le tester sous peu.
Je rejoins Anthony et Alex sur la deande d’un nouvel article 😀 .