Google, dictateur des temps modernes

Outre le fait que Google nous trace et nous cache des éléments importants qui nous concernent, que Google nous demande de dénoncer certaines pratiques qu’il juge contraire à ses guidelines, Google nous dit aussi quoi faire. J’avais déjà poussé un coup de gueule au sujet du nofollow (Google nous répète qu’il faut faire notre site pour les internautes mais nous demande de placer certains liens en nofollow, hors le nofollow est à destination des moteurs donc Google se contredit) et là je souhaite en pousser un autre au sujet d’un thème abordé lors de la conférence Pubcon de Las Végas qui a eu lieu hier.

Lors de cette conférence certains points ont été abordés et approfondis :

  • Bloquer archive.org est un signal négatif
  • La rapidité de génération d’une page peut influencer le positionnement positivement
  • Il est conseillé de laisser tomber ses domaines blacklistés plutôt que de tenter de les réintégrer car ils ont un historique chargé
  • La répétion de mots clefs dans les ancres internes (en particulier dans le footer) est troublant
  • Avoir plusieurs sites traitants de différentes sections dans une même thématique / niche peut-être un indicateur de spam (ce qui confirme que Google sait tracer les différents sites appartenant à une même entité ou personne)

Le point qui me choque le plus c’est celui qui concerne archive.org. Un petit rappel sur la WayBackMachine s’impose.

Capture d’écran archive Google

Capture d’écran archive Google

Le projet archive.org

Ce projet date de 1996 et il a pour but d’être une sorte de mémoire du web. Il prend des captures d’écran plus ou moins régulièrement des sites web et les propose en libre accès. Ces clichés pris régulièrement représentent 20 To de données tous les mois! Si pour la plupart des webmasters ces captures d’écrans représentent une sorte d’album de l’évolution de son site, ces clichés peuvent aussi être utilisés comme preuve, en tous cas aux Etats-Unis, lors de procès. D’autre part, la mise en mémoire d’une page internet peut servir de preuve lors d’un dépôt de brevet pour prouver l’existence antérieure d’un produit / d’une marque ou autre.

S’il est amusant de voir les évolutions d’un site sur un nom de domaine, si cela peut servir pour récupérer des domaines ayant eu une vie remplie et conforme aux guidelines Google, certains webmasters peuvent décider pour diverses raisons, de bloquer le spider de Archive.org. Cela peut se faire très facilement comme expliqué ici au moyen d’un ajout dans votre fichier robots.txt :

User-agent: ia_archiver
Disallow: /

Red Flag!

Cependant Matt Cutts nous dit aujourd’hui que cette pratique peut envoyer « un signal négatif » à Google car c’est un signal de « spam potentiel ». En effet il a été observé que la plupart des spammeurs interdisaient la mise mémoire de leurs sites par Archive.org et à ce titre, faire comme un spammeur n’est pas recommandé par Google. Bloquer archive.org permet d’éviter le stockage de ses différentes pages mais effacera aussi tout l’historique de ces mêmes pages. Or on peut penser que si on respecte les règles de Google on n’a rien à se reprocher. Cela dit on peut vouloir éviter d’être mis en mémoire sur Archive.org pour des raisons tout à fait valables comme :

  • éviter le stockage d’une page en plein développement
  • respect des droits d’auteur
  • ne pas laisser en libre accès un contenu qui passe en accès privé / payant
  • redonner une virginité à un domaine en effaçant son historique

Il a déjà été démontré que Google ne respectait pas la balise noarchive, maintenant c’est par l’intimidation que Google veut nous persuader que l’interdiction de capture d’écran de notre site par archive.org pourrait nous porter préjudice. Bien entendu ce red flag n’en est qu’un parmi plusieurs centaines mais c’est un pas de plus que franchit Google pour nous dicter la manière que l’on doit gérer nos sites internet. Et s’il y a quelque-chose que je déteste par-dessus tout, c’est qu’on me dise quoi faire ;)

Ainsi je continuerai de bloquer archive.org pour des raisons que j’estime valables et je vous encourage à faire de même. La prochaine étape consistera certainement à éviter que Google nous pose une puce dans le cerveau car, comme l’avait dit LaurentB sur son ancien site (et qui dans son nouveau billet focalise sur le vain combat de Google contre le spam) :

Tout est encore à venir et Larry Page, co-fondateur de Google, nous souffle ce que pourrait devenir le Google du futur : «On peut imaginer un jour que votre cerveau soit renforcé par Google. Par exemple, vous pensez à quelque chose, et votre téléphone cellulaire vous chuchote la réponse dans l’oreille.»


Blogueuse intermittente, consultante SEO et visibilité des sites web, Auvergnate et Cannoise à la fois. Je propose mes services en audit de référencement, accompagnement et formation, e-reputation, rédaction web orientée SEO et community management. N'hésitez-pas à me contacter pour toute demande de collaboration.

52 comments

  1. l'Ours   •  

    A moment donné, ce n’est pas archive.org qu’il va falloir bloquer, mais googlebot.

  2. Marie   •     Auteur

    Il me semble que c’est ce que veut faire Rupert Murdoch ;)

    Prochain objectif : se passer du trafic de Google!

  3. Alix   •  

    Je crois qu’ils m’observent.

  4. So...   •  

    Ca rejoint un article que je lisais chez Fred Cavazza qui parlait de la stratégie Google et prédisait une cannibalisation du web par Google.
    Ca vous rappelle pas un autre monopole, ça ?
    .-= So…´s last blog ..D’un nouveau gadget geek =-.

  5. Mathieu   •  

    ça confirme bien que Google nous trace et sait reconstituer un réseau de sites (via analytics / adsense ?) appartenant à un même webmaster/organisation…
    Maintenant, je trouve également abusives les mesures anti-spam… On donne un peu trop de droit à la « police du spam » qui finit par contredire ce que Google nous recommande…

    D’autre part, on est maintenant obligé de faire des concessions de plus en plus lourdes pour Mister G sans que pour autant on en profite en retour…

    Si seulement je pouvais me passer de leur trafic… :(

  6. sid   •  

    @lours : chiche ^^

    Ca devient effectivement un des objectifs : la google-indépendance …
    .-= sid´s last blog ..De nouveaux thèmes originaux WordPress =-.

  7. LaurentB   •  

    Je suis en train de rédiger un billet qui part de cet incident, mais la portée est beaucoup plus importante que Archives.org, dont on se fout totalement. Là n’est pas le problème.

  8. Marie   •     Auteur

    @Alix : oui, regarde par dessus ton épaule ;)

    @So : nous sommes dans une époque de monopole!

    @Mathieu : on n’a rien sans rien, à nous de trouver la parade pour nous passer de Google!

    @MickaëlB : j’ai tapé ce billet à voix basse

    @Sid : chiche!! je te laisse essayer!

    @LaurentB : archive.org n’a pas de s, mais robots.txt si! Je ne doute pas que ton billet ait une portée beaucoup plus importante que le mien ;) Moi le problème que je traite est bien cet incident de archive.org et tout ce que ça engendre. Si ton billet est complémentaire au mien, je te ferai comme il est d’usage, un beau BL sans nofollow :)

  9. Guillaume   •  

    Bonjour Marie,
    Un petit mot pour te dire que le WE dernier, j’ai pu redécourvrir le site internet que j’avais bâti grâce à The Way Back Machine. Que de bons souvenirs… J’ai vraiment passé un moment super agréable, c’est un peu comme re-découvrir un ami perdu de vue depuis près de 10 ans.
    J’ai aussi eu l’occasion d’utiliser Archive pour une recherche sur les stratégies des moteurs de recherches.

    Tout ça pour dire que le mouvement actuel sur Internet est la transparence et l’ouverture. Cet état esprit est souvent récompensé. Je sais Google ressemble un peu à un énorme Ogre qui se nourrit de nos informations pour gagner de l’argent. C’est un peu vrai par moment, mais il faut aussi se rendre à l’évidence que Google rend Internet meilleur de jour en jour. Les internautes ont tout intérêt à jouer le jeu et à donner les informations pour jouir d’un surf toujours plus personnalisé.

    C’est un peu comme Facebook : plus tu donnes d’informations, plus tu joues le jeu et plus tu reçois en retour.

    Enfin, c’est mon avis… et je suis prêt à reconnaître que parfois Google se comporte un peu comme un dictateur. Maintenant je pense qu’on a plus à gagner qu’à perdre en jouant le jeu.

    http://www.innovative-strategies.org/2009/07/watch-out-youre-spied.html
    .-= Guillaume´s last blog ..When advertizers use flies… =-.

  10. isurf' media   •  

    Argh ! Se passer du trafic de Google ? J’aimerais pouvoir le faire mais il m’apporte environ 65% du trafic, et plus sur certains sites… autant se tirer une balle dans le pied ! :s
    Cependant, si on arrive à faire prendre conscience aux internautes qu’il existe d’autres outils de recherche (équivalent au niveau de la pertinence des résultats), pourquoi pas ! Vous connaissez beaucoup d’autres outils ? :)
    Mais c’est vrai que Google est gonflant à toujours nous dicter ses règles !

  11. jdo   •  

    j’ai vu Archive en concert le mois dernier, c’était super bien, jvois pas pourquoi tu veux les bloquer ? ;)

    Plus sérieusement, quelles sont les raisons/contextes qui font que tu veux bloquer cet archivage ?

  12. l'Ours   •  

    @isurf’ media: tu devrais changer de stratégie et t’employer à ce que GG ne t’apporte pas plus de 40% de tes visites.

    D’autres outils, non mais d’autres moyens de faire la promotion de son site, oui, plein.

  13. Léo, Propulsr   •  

    Héhé, tu as mis un « please RT sur ton Tweet »… je note, je note :)

    C’est vrai que cette déclaration de Matt Cutts est un peut étrange car comme tu le souligne il y a des raisons valables pour ne pas souhaiter qu’une page soit archivée.

    Il ne reste plus qu’a cloaké le fichier robots.txt pour ia_archiver… mais bon, va savoir s’ils (Google) n’ont pas déjà la mainmise sur la base de ce dernier. Après tout, ceci n’enfreindrait pas les règles Google qui disent de ne pas leur servir du contenu différent qu’au visiteurs :)

  14. Marie   •     Auteur

    @Guillaume : j’ai aussi retrouvé la trace de mes premiers sites grâce à Archive.org. Le problème n’est pas tant le service que nous rend Google en échange de notre transparence, c’est plutôt ce monopole et cette manie de nous dire quoi faire et comment qui m’agace.

    @Isurf media : je crois que Wanadoo a un moteur :D

    @jdo : pourquio je voudrais bloquer l’archivage? Et bien parce-que Google me dit de ne pas le faire :D

    @l’Ours : tu as tout à fait raison, je m’emploie moi aussi à me passer de Google mais c’est pas simple

  15. Marie   •     Auteur

    @Léo : oui, j’avais dit sur ton blog que je l’essaierai malgré mes réticences. Je dois avouer que le « please RT » fonctionne du tonnerre. Enfin compte sur moi tout de même pour ne pas en abuser, je continue de trouver cette manière de faire un poil impolie ;)

  16. Léo, Propulsr   •  

    @Guillaume sur « C’est un peu vrai par moment, mais il faut aussi se rendre à l’évidence que Google rend Internet meilleur de jour en jour. »

    euh non pas vraiment. Chaque jour ils façonnent Internet comme eux le souhaitent, mais il ne le rende pas meilleur.

    @Marie :) je déconne, à mon avis le « please RT » n’as pas grand chose à voir avec le succès de ton billet, mais plutôt au ras le bol général d’un nombre grandissant de webmasters/référenceurs face à la dictature Google.
    .-= Léo, Propulsr´s last blog ..referenceurfreelance.com change de peau… et de nom =-.

  17. Sébastien   •  

    En même temps il disent que c’est un « signal », pas une preuve. Ce signal sera donc considéré dans un certain contexte. S’il y a plein de signaux qu’un site peut être du spam, alors il pourra être considéré comme tel. A aucun moment Google ne dit qu’il ne faut pas restreindre l’indexation par Archive.org. De même personne ne s’est vu desindexer pour le seule usage d’une balise nocache. Mais si le site utilise nocache, à des backlinks douteux, des textes présentant une structure anormale alors il s’agit probablement d’un site spammy.
    .-= Sébastien´s last blog ..Le comble de l’humilité =-.

  18. Marie   •     Auteur

    Tout à fait Sébastien, ce n’est qu’un signal parmi tant d’autres. Mais comment savoir combien de « mauvais signaux » un site envoie à Google? Ca on ne le sait pas clairement, les plus expérimentés peuvent en avoir une bonne idée mais aucune certitude.

  19. Sylvainp   •  

    @Guillaume: tout le monde n’a pas envie de se voir reprocher les textes de son blog d’ado 15 ans plus tard au moment de devenir une personne publique (pour l’instant le cas ne s’est jamais vraiment posé, mais cela finira bien par arriver). Je commence déja à voir certains de mes anciens étudiants qui ont des problèmes avec leur historique web…
    .-= Sylvainp´s last blog ..SPAA 2010 Call For Papers =-.

  20. AxeNet   •  

    Toi Marie, au train ou tu vas, tu vas te faire repérer et être l’une des rares à obtenir ce Droit à l’oubli préconisé par NKM.
    Quand tu ne seras plus de ce monde, Google effacera de ses archives tous tes posts dans les forums, toutes tes interventions sur les blogs, tous les sites ou tu auras déposé des idées subversives à l’encontre du « Maitre de l’information ». :-)

    Plus sérieusement, ces propos m’énervent, mais au moins, ils sont clairement exposés. Au jeu du chat et de la souris que nous pratiquons parfois, cela nous fait des informations supplémentaires pour ne pas se griller quand l’action mise en oeuvre n’en vaut pas la peine.

    Sinon, je rejoins assez l’avis de Sébastien, c’est un indicateur de plus pour GG, il n’entre sans doute en ligne de compte que si d’autres voyants se sont allumés.

    Pour ma part, c’est plutôt le dernier point relatif aux sites multiples dans une thématique de niche qui me chagrine. Mais il faudrait encore savoir ce qu’est une niche pour Google.

  21. isurf' media   •  

    @l’Ours : Tu as raison il y a en effet d’autres moyens de promotion et j’essaie de ne pas concentrer mes efforts seulement sur Google et ses concurrents, mais comme le dit Marie ce n’est pas évident.

    @Marie On se moque ? :D

  22. Pingback: Le vain combat contre le spam par Google

  23. LebossTom   •  

    « mais il faut aussi se rendre à l’évidence que Google rend Internet meilleur de jour en jour »
    @Guillaume : ah bon?!?… me voilà rassuré…
    Petit rappel, Google n’est pas une association philanthropique.
    .-= LebossTom´s last blog ..Plaidoyer pour le rel canonical =-.

  24. LaurentB   •  

    @Seb Billard : pas du tout d’accord sur l’idée que ça soit juste un paramètre parmi tant d’autres.
    Ou alors, ça ne fait rien de déclencher une suspicion ? Apparemment, tu ne dois pas travailler sur des sites qui comportent tellement d’erreurs pouvant être interprétée comme du spam.
    De plus, tu ne dois pas bien comprendre l’anglais et encore moins Matt Cutts car s’il dit « it’s huge », ça ne veut pas dire « insignifiant » ou « un parmi tant d’autres ».
    Tes propos ressemblent plus à ceux d’un ignorant qu’à un prétendu « expert ». CQFD

    @Mar1e : pour clarifier mon premier commentaire qui a été rédigé en vitesse, je veux juste dire que ni toi ni mois avons prêté attention à archive.org (‘s’ en plus prouvant ma hâte :D) jusqu’à hier. Ce n’est pas vraiment le blocage ou pas de ce site qui fait chier, mais vraiment cette absence de visibilité dans les règles à suivre. Il faut recentrer ce détail dans la globalité pour saisir la portée de ce dictat.
    D’autres ne semblent pas se soucier de tout ça, mais alors ils sont vraiment trop forts car je vois non seulement une menace par rapport à mon métier, mais en plus par rapport au Web en général.
    .-= LaurentB´s last blog ..Google peut-il combattre le spam ? =-.

  25. Sébastien   •  

    LaurentB : oui Matt a dit apparament « it’s huge » mais dans un certain contexte. Sur Twitter, en réponse à Michael Martinez, il écrit « You might have heard a scrambled version.. What I was trying to say was.. if I’m already investigating a site which is spammy-looking and appears off-topic/expired, then IA block is very noticeable ». Michael Martinez a ensuite édité son post : http://www.seo-theory.com/2009/11/12/reblog-why-some-sites-must-block-archive-org/
    .-= Sébastien´s last blog ..Le comble de l’humilité =-.

  26. LaurentB   •  

    Comme je disais, il semble bien que tu ne saches pas bien comprendre le langage de Matt Cutts ou de Google.
    Tu le crois vraiment quand il essaye de rattraper le coup sur Twitter ? Sa réponse maladroite ne tient pas debout.
    De quoi il parle ? De cloaking évidemment ou autres moyens de déceler le contenu caché.
    Sa console ne va pas enchaîner les paramètres les uns après les autres, mais c’est bien une vision globale de l’état du site qui est sur son ordinateur. Et peu importe que ça soit avant, pendant ou après qu’il soit allé faire pipi. Une alerte est une alerte et « huge » veut bien dire énorme. Il ne faut pas minimiser la portée des propos par son rattrapage malheureux dans Twitter.
    C’est vraiment ça la comm Google ? On fait passer un message par le biais d’une retransmission d’un bloguer lors d’une conférence, puis on répond à un Tweeter pour s’expliquer ?

    Je répète que minimiser ce détail comme tu le fais est malvenu et dangereux pour tes lecteurs.

    Encore une fois, j’en ai rien à faire de ce blocage d’archive.org. Par contre, ça m’interpelle que les sacro-saintes Google Guidelines n’en disent rien.
    .-= LaurentB´s last blog ..Google peut-il combattre le spam ? =-.

  27. Gwaradenn   •  

    On peut très bien enlever le cache pour des raisons juridiques, bloquer les archives pour des raisons X ou Y et pourtant cela déclencherait des signales, ce n’est pas juste!

    En même temps, un webmaster lambda ne lira pas les recos de Google, ne bloquera pas le cache & webarchiv, CQFD.

    Google fait des choix logiques et communique pour effrayer la population, cela ne m’inquiète pas. D’ailleurs, à votre avis, qui se connecte à Google dashboard? ;)
    .-= Gwaradenn´s last blog ..SuperRefMan =-.

  28. Orénoque   •  

    Malheureusement il y a beaucoup de vrai dans tout ceci. En particulier la terreur qu’inspire Google aux webmasters et bien sûr aux seo. La hantise de se faire blacklister ou pénaliser d’un -30, -60 ou moins quelque chose sans savoir exactement pourquoi un site qui réussissait bien dans les résultats de recherche disparait tout d’un coup est bien réelle.

    J’ai tendance à penser comme Michael Martinez: le concept du PageRank ne fonctionne pas, c’est pourquoi Google essaie de «réparer» son algorithme fautif en voulant domestiquer le web par diverses initiatives dont le nofollow est un bon exemple.

    Tous les grands sites «ont baissé leurs culottes» devant Google à ce sujet. Twitter le dernier en liste.

    Seobook a de très bonnes analyses sur comment Google canibalise de plus en plus ses propres résultats avec ses propriétés web et s’approprie le «deuxième clic».

    Histoire à suivre donc ;-)
    .-= Orénoque´s last blog ..Une présence internet qui fait Bang! =-.

  29. Eric   •  

    Je partage l’avis de Sebastien Billard sur le point ou c’est UN élément parmi d’autres (qui a l’air d’être un « huge element »).
    Je partage ce point de vue suite à une des mise à jour de Google, lorsque tous les sites étaient considérés comme spammy. La réponse de Google a été « d’augmenter le nombre/niveau de tests automatiques avant la mise en ligne d’une nouvelle évolution ».
    Ce qui pousse à croire que les indicateurs sont traités automatiquement et que lorsque ces indicateurs dépassent un certain niveau (via une éventuelle pondération suivant les différents éléments en présence), le site puisse être considéré automatiquement comme spam.

    Si je prends un exemple, il suffirait qu’il y ait le noarchive d’archive.org + bakclink louche ou keyword stuffing + contenu caché + liens de blogs… => avec un traitement automatique.
    .-= Eric´s last blog ..Nouveauté Google Webmaster Tools ! =-.

  30. LaurentB   •  

    C’est la solidarité des free.fr ignorants ou quoi ?

    Il faudrait plutôt se renseigner comme il faut à propos de l’incident en particulier, notamment son contexte exact, ainsi que la manière dont s’opère un audit.

    Dans ton exemple, tu oublies les liens vers n’importe quoi en footer sur un site d’une autre thématique. Editeur de logiciels par exemple.
    .-= LaurentB´s last blog ..Google peut-il combattre le spam ? =-.

  31. ThierryP   •  

    Remarquez qu’il est 2 heures du matin et que je me retrouve à lire un article sur le film « les temps moderne » avec Google Chapling en archive…

    Mouais, là je le met en favoris et je le lirais demain matin (14h-15heures) au calme…
    .-= ThierryP´s last blog ..Le tout nouveau langage de programmation signé Google =-.

  32. Marie   •     Auteur

    @SylvainP : heureusement que je n’avais pas le net quand j’avais 15 ans, ça m’évite d’avoir un historique trop chargé ;)

    @Axenet : au sujet des sites multiples dans une niche, j’ai des connaissances qui ont vu tout leur réseau de sites tomber et ne jamais remonter. Les sites étaient propres et avaient du contenu unique mais ils rankaient peut-être trop bien et tout le réseau est tombé. Ce qui fait peur aussi c’est de voir que remonter les whois pour pénaliser tous les sites d’une même personne soit d’usage courant chez Google…

    @Isurf Media : il faut tout de même reconnaitre que peu de moteur peut rivaliser avec Google ;)

    @LeBossTom : Google est là pour gagner de l’argent mais pas que…

    @LaurentB : oui ce n’est pas le blocage d’archive.org qui est ennuyeux mais c’est la goutte d’eau qui fait déborder le vase chez moi, d’où l’envie de pousser ce coup de gueule. Et « moi » ne prend pas non plus de S :D (t’as des soucis de S on dirait ;) )

    @Gwaradenn : oui je suis d’accord avec toi, c’est pas juste :( sans faire le Calimero, on n’a pas vraiment le choix et on est obligé de se plier aux règles de Google

    @Orénoque : je suis d’accord avec ta synthèse, cela dit je n’ai pas vraiment peur de Dieu Google, au pire on repart sur un nouveau domaine, comme il le conseille ;)

    @Eric : c’est un point parmi d’autre mais il semble que ce soit un « huge » point, a big red flag, à méditer donc..

    @LaurentB : je commence à croire que tu aimes le rose de mon blog :D

    @ThierryP : j’attends ton commentaire de pied ferme :P

  33. Amine   •  

    Google n’est pas synonyme du mot traffic. Bien qu’il en génère assez, y a de nouvelles sources qui sont entrain d’en générer d’avantage (lentement mais surement). Faut miser sur la fidélisation des visiteurs et la fourniture de widgets pour laisser vos visiteurs vous rapporter le traffic dont vous avez besoin.
    Quand à grand G, il saura s’adapter aux exigences des webmasters s’ils arrêtent de penser à lui et de lui donner des offrandes et s’ils se concentrent sur la qualité de leurs contenu.
    .-= Amine´s last blog ..Dell accède au marché du Mobile avec la série Dell Mini 3 =-.

  34. Dan   •  

    Pour revenir sur les liens « suspects » dans le footer, ok pour les liens externes, pour les liens internes ça devient lourd si c’est pas fait de manière abusif j’entends… Certains ont un retour d’expérience sur ça ???

  35. Antonin   •  

    Merci pour ce billet, l’ogre Google rode… à trop vouloir d’infos pour « bien classer les sites », son comportement peut faire peur : profiler les pro du SEO par exemple, c’est vraiment limite comme pratique ! (cf http://www.winningtheweb.com/red-flags-reveal-google-seo.php )

    Au passage la question du footer m’intéresse également, le linking interne dans le contenu est bien plus pertinent, mais le « super footer » de plus en plus à la mode et que je travaille actuellement pour un site semblait utile, que ce soit pour le SEO ou même pour l’ergonomie… va-t-on bientôt faire attention aux optimisations ergonomiques de nos sites de peur que Google prenne ça pour une sur-optimisation SEO ? Franchement je vais loin parfois, mais on y vient presque…

    PS : j’ai réussi à faire marcher non sans mal CommentLuv, happy :)
    .-= Antonin´s last blog ..Ressources Référencement : des liens pour votre veille professionnelle #2 =-.

  36. Marie   •     Auteur

    @Amine : ce blog est l’illustration qu’on peut faire du trafic sans Google. Ici le trafic est généré majoritairement par les réseaux sociaux ;)

    @Dan et Antonin : Certains sites arrivent chez moi sur-optimisés. Je me contente de desoptimiser et le site remonte en général aussi vite ;) « point trop n’en faut » disait une de mes amies ;)

  37. Pingback: Kiosque des Blogs Numéro 45 | Blog radar

  38. Pingback: Bloguer ou ne pas bloguer » De Je, Nous aux genoux

  39. Pingback: GOOGLE DICTATEUR DES TEMPS MODERNES | blog.referencement-1ere-page.com

  40. Rayonnage   •  

    Se passer de Google devient de plus en plus : en plus d’être partout, ils offrent trop souvent de très bon produit. Je n’aime pas mettre tous mes oeufs dans le même panier, mais d’un autre côté je n’aime pas choisir mes programmes selon leur marque, je prefere utiliser les plus plaisant à utiliser. Je me retrouve donc coicné sur google les 3/4 de mon temps que je passe sur le web.

    Il faudrait vraiment que Bing monte un peu plus, histoire de calmer un peu l’ego de ce mastodonte.
    .-= Rayonnage´s last blog ..CLOISON AMOVIBLE SUR STRUCTURE PLATE-FORME =-.

  41. Moi j’aime bien archive.org car il permet de débusqué les sociétés qui propose de l’échange de liens avec des nom de domaine qui sont hors contexte du site maintenant, j’ai eu une société qui voulais échangé des liens, le site qu’elle me proposais était pagerank 4 mais sur archive.org ont pouvais voir que le site avais toujours le même contenue depuis 5 ans et que se site était un ancien nom de domaine récupéré à l’arrache pour non renouvellement et mis en parking.
    Bilan la société passais plein de partenariat et au bout d’un moment il te giclé de leur site, comme certains webmasters ne vérifie jamais ça reste tous bénef pour eux.

  42. gegen Langeweile   •  

    archive.org has become soo important for me. i could not live without it anymore. it shows you the exact history of any page that was indexed. so if you become an older page you better check the history!

  43. Nikolopoulos   •  

    Google fait la pluie et le beau temps et c’est bien parti pour durer un certain temps !

  44. Arf   •  

    Ce sont simplement des indicateurs potentiels. Il ne faut pas tomber dans la parano non plus même si j’ai vu sur une de mes sites une pénalité de la petite barre verte pour très certainement vente de lien qui n’en était pas…
    Un partenaire qui supprime un lien peut rapidement tourner à la catastrophe.
    Le pire c’est que tu es jugé coupable immédiatement. Il ferait mieux de vérifier les anciens liens présents sur le site au lieu de pénaliser plus vite que leur ombre…

  45. dich vu ke toan   •  

    Sachant que nous sommes très influencé par notre formation initiale, j’ai tendance à penser qu’il vaut mieux avoir acquis un « savoir être » et un bagage marketing pour plus tard apprendre les rudiments techniques (pas si compliqués que cela) que le contraire.
    Pour résumer, le processus tendant à acquérir un niveau technique lorsque l’on a une bonne base marketing me semble plus facile que l’inverse…

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>