IMPORTANT : Cet article n’est en aucun cas une attaque envers les SEO, me considérant encore l’un deux (bien que je sois maintenant plus un webmarketeux qu’un référenceur).
Derrière ce titre quelque peu racoleur se cache une vérité que j’observe depuis quelques temps. Google n’avait plus vraiment la main et ne parvenait pas à obliger certains référenceurs à respecter ses règles. Il a enfin trouvé une méthode miracle : la désinformation + faire peur à tout le monde. Je vous explique mon point de vue ici.
Le monde du SEO
Voilà quelques années que je me suis écarté quelque peu du monde du référencement. Depuis que j’ai découvert le marketing en général, je m’amuse beaucoup plus à utiliser toutes les armes possibles (Adwords, Facebook ads, travailler les messages de vente, parler stratégie…) dont je dispose que de simplement tenter de « berner » Google (même si j’ai toujours été plus white que blackhat).
J’aide les entreprises que je conseille au mieux et je n’hésite pas à tester mes méthodes sur mes projets persos.
Jusqu’à récemment, je voyais bien que Google ne parvenait pas à enrayer les méthodes « borderline » de référencement. Les changements d’algorithme + les différentes claques données ne fonctionnaient pas tant que ça. Et puis vint la lumière…
Google a-t-il trouvé la solution ?
Depuis quelques mois, non content de changer son algorithme (enfin surtout d’ajouter des filtres), Matt Cutts et ses copains ont trouvé une solution qui selon moi est beaucoup plus efficace : insinuer le doute dans la tête des référenceurs.
Utiliser la désinformation, colporter des rumeurs, faire des exemples etc…
En un mot : mettre un vers dans la pomme et regarder le résultat, et ça marche !
Les SEO prennent peur !
Partout, sur le forums et les blogs dédiés, on lit des articles qui font froid dans le dos : « Google part à la chasse aux liens ancrés« , « Google détecte facilement annuaires et communiqués de presse » …
Attention, je ne suis pas en train de jeter la pierre aux SEO, que je respecte profondément (je considère que j’en fait d’ailleurs toujours partie).
Je fais juste un constat, et j’apporte mon point de vue en regardant tout cela d’un tout petit peu plus loin.
3 questions simples me viennent à l’esprit :
N’est-on pas en train d’assister à une grande mascarade ?
Ne fait-on pas de quelques cas particuliers des généralités ?
Google n’est-il pas en train de prêcher le faux pour faire changer le SEO à son avantage ?
Et maintenant, on fait quoi ?
Récaptitulons: on ne peut plus faire de liens ancrés, on ne peut plus utiliser les annuaires et les communiqués de presse, on ne peut plus faire de partenariats, on ne peut plus faire de liens vers les potes… Soyons sérieux.
Je l’annonce d’ailleurs ici et maintenant : Non, je ne retirerai pas vos liens ancrés si vous en avez sur ce blog, pas la peine de m’écrire pour cela !
Débattons ici même ami(e)s SEO, j’ai envie de connaitre votre point de vue sur cet article !
PS: les pink SEO ont-elles été castrées aussi ? ^^
Ce qu’il reste à faire ? Et bien faire des sites de qualité, pensés pour les lecteurs et internautes… ce qu’on aurait du tous faire depuis le début 🙂 Des contenus de qualités, qui se suffisent à eux-mêmes pour attirer des lecteurs, par leur qualité
Simple, évident, mais on n’y pense pas toujours, c’est vrai !
Je suis bien d’accord avec cette idée. Le monde du SEO parle beaucoup et se base facilement sur des petites hypothèses pour construire des stratégies de référencement. Sachant que Google nous a surpris par le passé à utiliser de puissants algorithmes, il m’arrive plus souvent que je ne le souhaite de sortir la fameuse phrase : « Google est capable de détecter ça ». Remplacez « ça » par n’importe quelle méthode de référencement utilisé par les SEO.
Google sait bien qu’il y a un facteur humain puisqu’il y a des référenceurs derrière bon nombre de sites web. D’ailleurs, son brevet « Ranking Documents » de Ross Koningstein montre bien cela, même si Matt Cutts indique qu’ils n’utilisent pas forcément ce brevet à l’heure actuelle.
Donc oui, il faut continuer de faire des tests pour s’assurer qu’une méthode fonctionne ou non. Parce que bizarrement, il y a toujours des liens naturels qui sont obtenu naturellement via des bloglist, des signatures de forum ….
Merci Tony pour ton commentaire, content de voir que je ne suis pas le seul à penser que GG se joue de nous !
« Et maintenant, on fait quoi ? »
Je pense qu’il faut rester focus sur les règles que chacun s’était donné et de pas « trop » montrer à Google que l’on change son fusil d’épaule et donc lui donner raison.
Mais quoi qu’il en soit et comme le dit justement Romain de toute façon du bon contenu de qualité (un peu structuré SEO quand même 😉 ) est et restera la base de tout bon référencement.
Bonjour Remy
Merci d’avoir viré Disqus, on peut enfin commenter 🙂
Pour rappel quand même, Google ne fait pas QUE de la propagande. Depuis le début de l’été, j’ai eu 8 contacts de personnes qui se sont pris des pénalités manuelles.
On est là dans du très concret, pas dans de la communication.
Après je suis d’accord, Google communique, mais globalement il dit la même chose depuis longtemps, sauf qu’il s’est amélioré un peu et que pas mal de techniques limites d’avant sont maintenant réellement sanctionnées.
Sur le fond, ce n’est pas forcément une mauvaise chose. Parce que franchement, les CP comme source principales de linking pour un site, avouons que c’était de la manipulation d’algo pure et simple, rien d’autre.
En revanche, ceux qui prennent le SEO sous un autre angle, avec une orientation marketing qui permet d’aller chercher de bons liens seront privilégiés. Tu devrais donc t’en sortir haut la main 🙂
Bref, je ne crois pas que l’on assiste à une parano SEO.
C’est juste qu’avant il y avait des règles mais pas beaucoup de « gendarmes » pour les faire appliquer.
Maintenant Google est en train de coller des radars partout alors ça calme 😉
Hello Sylvain, content que tu puisses enfin commenter !
Oui, je ne me plains pas perso, ce n’est plus vraiment mon fonds de commerce si je puis dire ^^.
Ceci dit, je reçois régulièrement des mails qui me demande de virer tel lien à tel endroit etc… Pas le temps ni l’envie !
Faut assumer si on fait n’importe quoi, c’est comme pour tout en fait.
Je persiste à croire qu’il y a une sorte de psychose et que cela arrange les affaires du moteur qui n’a toujours pas réglé efficacement le problème…
Disqus a disparu, c’est cool, reste plus qu’à passer les liens en dofollow 😉
Ton billet est le reflet de la parano ambiante, à juste titre ou pas, et pour rejoindre les propos de Sylvain, c’est un fait que le linking de basse qualité ne paye plus comme avant 😉 par contre, penser branding, marketing, rp… est effectivement plus pérenne !
En prenant peur ainsi, les référenceurs qui veulent plaire à Google démolissent la profession.
Certains veulent « anticiper » les prochaines mises à jour et durcissent leurs conditions (modération de commentaires par exemple sans ancre optimisée, attribut nofollow aux liens dans les CPs, fin des guest posting…).
Mais en faisant cela, ils jouent le jeu de Google qui n’en demande pas tant ! Ils sont comme de braves petits soldats qui paradent devant les Quality Raters.
Ils n’ont pas compris la suite inéluctable : de toutes façons, ils disparaitront des Serps comme les autres, c’est une question de temps et de niche (le référencement naturel pour des thématiques pas trop concurrentielles va encore vivoter quelques temps)
Perso je préfère ne pas foncer trop vite dans le mur, je continue de faire comme je le sens, j’accepte les EMD en signature, je reste en follow, etc
Finalement, tant mieux si la majorité des SEO prend peur : en désoptimisant leurs sites, ils vont me permettre de faire monter le mien ^^
@yann : Oui, je suis assez d’accord. On va voir la suite des événements !
Enfin un billet que j’approuve ! J’avais l’impression ces derniers mois d’être entouré de « pleureuses » prêts à jeter l’éponge parce que Google durcit encore une fois les règles.
Le seo est encore pour moi plein d’avenir il faut comprendre qu’il faudra toujours s’adapter. Google ne deviendra pas un moteur 100% adwords
La désinformation a toujours été une des plus belles armes de Google et Matt Cutts y prend sans doute un malin plaisir.
Par exemple, annoncer que le temps de chargement des pages a un impact sur le positionnement alors qu’au final cela ne touche qu’1% des requêtes, ça reste de la fumisterie. 1% ce n’est pas significatif pour en parler et tromper le monde. Bien que ça reste intéressant pour l’internaute, Google annonce quelque chose qui n’est pas vrai. Ce n’est qu’un exemple mais ça montre bien que Google n’hésite pas à dire des choses en imaginant que ce soit pris pour argent comptant.
J’aime bien votre billet, et je suis d’accord avec vous. Il est grand temps que les référenceurs changent d’activités, pourquoi pas le webmarketing.
Google de plus en plus agressif envers les seo, plus de contrôle, de maj GG (Panda, Pingouin), il change les règles du seo, la majorité des balise seo tomberons, la liste s’allonge…
Bonjour Rémy,
Beaucoup de désinformation, c’est évident. On peut avouer que c’est quand même malin, ils ont trouvé là, un moyen de faire le boulot par les intéressés, eux-mêmes.
En plus de cette étonnante réussite du programme d’auto-dénonciation, ils ont l’air de mettre de plus en plus de moyens dans la détection des liens..
Donc, si on ne veut prendre aucun risque,il faut d’abord penser utilisateur et variation (des textes, des ancres, des styles, des plateformes,…) et pis c’est tout! Ca m’étonne toujours de voir un grand nombre de personnes s’étonner du sort de leur(s) site(s) en ayant linker qu’avec du CP, où dès le chapeau, on trouve les mots ‘communiqués de presse’ et ‘référencement’! Comme le disait Sylvain, avant-hier, dans son billet du dimanche, quand on fait du gris, on en est conscient, non?
Pour conclure: S’éloigner de la lumière blanche, c’est mal…enfin c’est ce qu’on m’a dit! 😉
Pffffffffff… Je ne sais pas trop commentréagir a ton article … Tout comme Axe-net je dirais qu’effectivement Gégé est devenu un peuplus « compétent » onva dire our détecter les liens pourris. C’est un peu une sorte de cercle vicieux – Les SEO « pousse boutons / on fait du lien a Gogo » avait trouvé une faille avec les CP et autres sites péraves… ils en ont usé et abusé de leurs « spots » – Note perso : les SEO qui disent utiliser des « spots » me hérissent au plus haut point » – ce qui a forcé Google a s’adapter. Tu remarquera que ce sont ces memes SEO « a spots » qui derriere se font les plus forts échos de la chasse aux liens ancrés et a la mort du SEO.
De mon point de vue « artisan SEO » la chasse aux liens ancrés ca m’en touche une sans faire bouger l’autre pour etre parfaitement honnete parce que dans mes stratégies ca passe relativement bien au travers das la mesure ou je fais les choses doucement, avec attention sans pousser mémé, a la main. Et oui j’utilise des liens ancrés masi le link building est fait de telle facon qu’il est… comment dire… trop petit, pour etre pénalisé – je ne suis aps un assez gros poisson pour que la flicaille Google s’interesse a moi… c’est je pense la meilleure analogie.
Alors ca met du temps pour avoir des résultats, et je ne décroche pas la lune non plus – je suis réaliste – mais pour le moment et bien je ne me fais pas trop de souci pour mes clients
Hello le muscle ! Oui, je suis d’accord, ce sont souvent ceux qui ont été les plus « faciles » sur la gâchette du lien véreux qui se plaignent le plus…
Une purge par le bas (seo facile) ne me dérange pas. Ça fera de la place à ceux qui taffent sérieusement sur ce business !
En définitive, c’est ‘wait and see’.enfin effectivement c’est panique chez certains , les blogs qui retirent tous commentaires, j’ai meme eu un annuaire qui ne donne plus d’url en follow . Du grand n’importe quoi .
Et dans 6 mois les regles seront de nouveau modifiees.
Le SEO est devenu moins bourrin, mais ca reste le premier levier pour générer du trafic sur le web. Après on voit bien l’augmentation croissante des demandes de devis SEO, les éditeurs de sites sont en fait les premier touché par le durcissement des règles de fonctionnement de Google, indirectement GG donne beaucoup de boulot aux SEO…
Hello Clément, ce n’est pas faux. Le nombre de claques données étant importants (et donc aussi la prise de conscience de certains), ils cherchent par tous les moyens à reprendre du poil de la bête.
J’aime bien ton point de vue, mais du coup comment expliques-tu la chute de trafic venant du référencement naturel pour beaucoup d’entre nous ?
Hello Jérome,
pour ma part, je ne l’ai eu que sur un site (et j’avais volontairement bourriné ^^). Je pense que le simple fait que certains se soient fait défoncer explique cela (sauf si en plus tu as fais des choses vraiment répréhensibles). Prenons un exemple : Tu as ton site qui a disons 1000 backlinks venant de 300 domaines différents. Sur ces 300 domaines, 50% se prennent une gifle de Google pour comportement abusif = 50% de tes backlinks sont dépréciés = tu perds du réf.
Je suis plutôt d’accord avec ce qui est dit ici ou en tout cas avec l’idée qui est de dire que Google ne savait plus trop comment empêcher les pollueurs du web de polluer.
Pour moi tout a vraiment commencé avec les alertes WMT concernant la qualité des liens médiocres qui pointaient vers un site. Le fameux petit triangle jaune qui a fait flipper tout le monde et qui a incité tout un tas de gens à renier des liens plus ou moins pourris.
Rien de mieux pour Google que de se faire servir les galaxie de sites sur un plateau ^^
C’est depuis lors que Google a pu mettre un pied dans la mare et se servir des différents retour qu’on a pu lui donner.
Alors certes ya eu des sites pénalisés, j’en ai vu passer et c’est sans doute dans l’ordre des choses.
Il ne faut pas abuser des bonnes choses on nous l’a toujours dit : point trop n’en faut comme disent les anciens !
Moi ce que je constate c’est que Google nous « incite » à l’action, soit en nous pénalisant clairement soit en nous faisant faire le yoyo avec son fameux brevet à la con.
N’oublions pas que le web évolue, qu’on a triché de plus en plus, qu’il y a toujours eu des sites pénalisés, qu’il y en aura encore et que souvent, c’est « justifié » ^^
Suite au prochain animal noir et blanc !
Hello matthieu, merci pour ton commentaire.
Oui, Google a littéralement réutilisé le concept du UGC : faites le boulot à notre place, désavouez des liens, qu’on puisse voir qui fait les choses mal !
A suivre…
Rien n’a jamais été prouvé. çà reste des liens ancrés et si la plate-forme est bien tenue, ces liens constituent un plus (qu’on ne mesure pas toujours). Encore une fois dans une stratégie de backinks, les CP ont leur place et pour ma part, j’attends toujours les preuves du contraire.
Ces sites ne se font pas pénaliser par Penguin et autres animaux noirs&blancs. Bref, il va falloir se calmer sur les ancres de liens parfaites et commencer à poser des liens en nofollow, des « cliquez-ici et là », une notion que 512 Banque révélait déjà en 2012 (cf article de sa conférence sur les méthodes avancées de seo) .
Je pense en effet qu’il y a pas mal de fausses informations distribuées par Gros Go… et beaucoup d’entre nous flippent, je ne dis pas que je ne flippe pas puisque ça serait mentir, vu que nous ne savons pas quels informations est juste, il est évidement que nous faisons des tests, que ce soit d’ancres, de spots etc.
Voilà mon mini point de vue 😉
Personnellement moi ce que j’ai compris c’est que s’acharner à essayer de plaire à (ou rouler) google était une perte de temps.
Après tout Google à toujours dit qu’il fallait avoir un comportement naturel et qu’il se chargeait ensuite de placer les sites lui même dans les serp.
J’ai donc arrêté de faire du réf et je me consacre à faire de la qualité et à discuter de mes articles/produits là où ça intéresse vraiment les gens.
Étrangement les produits ou articles qui ont du succès lorsque j’en parle avec d’autres personnes sont ceux qui se retrouve les mieux placé dans les SERP.
Finalement j’en conclut que Google à un algo qui marche et qu’on devrait le laisser faire ce qu’il veut, moi c’est ce que je fait.
Bon pour info, cette révélation ne m’ai pas venu à l’esprit toute seule, j’ai l’un de mes plus gros sites (uniquement white hat) qui c’est fait éjecter sur des mots clefs très important et j’ai du coup été obligé de tout remettre en question.
Désormais je ne suis plus dépendant de Google c’est juste du bonus…
Merci Olivier pour ton commentaire.
Très bonne idée que de ne plus dépendre de Google, quel danger !
On avait fait cette constatation avec ma fée corsetée, on avait 90% du trafic qui venait de Google. C’est à ce moment-là qu’on a décidé de changer de stratégie et qu’on a créé la page Facebook qui cartonne aujourd’hui.
C’est une super bonne stratégie de la part de Google car ça lui permet de faire fonctionner à mort ses annonces sponsorisées. 😀 Les équipes de Matt Cutts savent qu’il y aura toujours des gros bourrins d’ailleurs il est encore possible aujourd’hui de faire ranker des emd bien crades… Bref un peu du flan à chaque fois les déclarations…
À la base programmeur, je suis responsable informatique dans une compagnie au Québec et j’ai quelques petits projets personnels à côté. Depuis quelques temps j’avais constaté une dérive dans la perception du web par les clients mais aussi dans les tarifs pratiqués par les fournisseurs. Je m’explique.
J’ai vu des compagnie vendre des sites web très ordinaires à des tarifs assez élevés : on rémunère moyennement le graphiste, beaucoup le SEO et très peu le programmeur. Pour moi c’est une dérive à laquelle Google essaie de mettre fin. Les gens des compagnies comme Google ou Facebook, la valeur ajoutée des sites est faite par : la qualité du contenu (fournie par le client en général), la qualité du code et des fonctionnalités puis enfin le design (google ou facebook, excusez ça n’est pas incroyable sur ce plan, pas plus que Wikipedia) puis enfin de mon point de vue les « trucs et astuces » SEO.
Ce que je veux dire, c’est qu’un site intéressant et bien programmé devrait être bien référencé. Et je pense que c’est ce que Google cherche à faire. On cherche le talent. Il y aura probablement des applications capables de faire bientôt ce que font les SEO, ça a déjà commencé. Pour ce qui du code, c’est différent. Oui il y a des CMS par exemple. Encore faut-il les coder. De plus, théoriquement, on a prouvé qu’il y aura toujours du code. Car une fonctionnalité avancée et spécifique nécessite de faire du code. On ne monte par exemple pas des requêtes SQL complexes avec des outils graphiques.
J’espère sincèrement que les moteurs de recherche vont favoriser le référencement naturel, les bonnes pratiques, les bons contenu et le beau code. Car pour moi ce qui est essentiel, c’est que les programmeurs soient récompensés au niveau de leur talent et de la complexité de leur travail. Un travail génial dans le sens qu’il est à la fois profondément logique et créatif.
Informatiquement votre,
Hyacinthe Hervé.
Merci Hyacinthe pour ton commentaire !
On verra ce que l’avenir nous réserve, mais je suis certain que Google prêche beaucoup de faux pour obtenir le vrai…
Je suis tout a fait d’accord avec toi Rémy. Il est clair que Google mène une politique de terreur pour pallier à l’inefficacité de ses updates d’algorithme récurrents. Matt doit sûrement penser qu’en communiquant ainsi, il parviendra à en déstabiliser certains, et que compte tenu du contexte actuel, ce sera toujours ça de pris !
Maintenant, il ne faut pas se voiler la face. L’objectif de Google reste bel et bien d’améliorer la qualité de ses résultats de recherche tout en privilégiant, autant que faire se peut, ses propres services et intérêts (cf. son comparateur d’assurances auto). Mais bon, cela fait partie du jeu, et comme le précise à juste titre Clément, les moteurs restent pour bon nombre de sites la première source de trafic.
A partir de là, difficile de se résigner à tout lâcher du jour au lendemain, d’autant que les SEO ont encore à leur disposition une quantité suffisante de supports et de pratiques pour travailler efficacement leur référencement. Par contre, il faut savoir les utiliser à bon escient, ce qui implique un effort d’adaptation permanent aux nouvelles contraintes imposées par Google.
Bonjour Benjamin,
merci pour ton commentaire.
Oui, je pense que la stratégie de Google est la bonne, ils ont littéralement mis un ver dans le fruit !
Et maintenant, on fait quoi ?
C’est simple… maintenant on rédige du bon contenu, on optimise nos pages web en faisant attention à la suroptimisation, on va à la pèche de liens de qualité et le plus « naturels » possibles (le linkbaiting vous dit quelque chose? sinon, on travaille notre stratégie de visibilité sur les réseaux sociaux et on reste zen !
Ps: non, les pink SEO n’ont pas été castrées, juste un peu chatouillées 🙂 Google est un gentleman 🙂
Hello miss SEO,
cool, enfin une pink qui répond !
Content dapprendre que Google reste un gentleman, c’est surement grâce au tee shirt rose de Matt Cutts (héhé @mar1e)
Hello !
…et hop je teste un lien ancré sur ton site, Rémy ;))
Je pense aussi, comme Le Juge, que c’est comme pour les impôts, ça dépend de la taille du poisson et du rang du site dans Alexa. Pour moi on peut continuer, en maîtrisant bien le rythme d’acquisition, et sans spamer comme un coch***.
Bertrand
Merci Bertrand !
Avant de créer ma nouvelle entreprise, je me suis formé au SEO. J’ai fait des tests, arpentés des forums (parfois avec fracas vu que le secrets semblent vouloir se garder) et finalement appliqués ce que l’on m’a appris…
Et finalement, c’est à moitié concluant: non seulement ce revirement de Google envers les ancres est un véritable enfer pour certains de mes projets (inclus mon site perso).
Les changements tous les deux mois des règles en matière de référencement décrétés par Google me semblent excessifs surtout que pour voir les résultats des différents tests, il faut des semaines avant un nouveau scan du robot. Bref, très difficile dans ces conditions de promettre quoi que ce soit à nos clients.
Bonjour Pierre,
merci pour ton commentaire.
Oui, Google use de sa domination pour faire un peu ce qu’il veut.
c’est à nous de tenter d’être plus fin que lui, de temps en temps 😉