Google Pigeon, serez-vous le pigeon de Google ?<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Nouvelle mise à jour de l’algorithme de Google pour la recherche locale

Google Pigeon a été déployé avant tout aux Etats-Unis en juillet 2014 et en décembre 2014 pour les autres Pays. Un an après son lancement, Google Pigeon est désormais actif pour la France. Il semblerait que la notion de pigeon ne soit pas tout à fait la même à Mountain View et ici sous la Tour Eiffel… Google ne nous a pas habitués à de telles blagues. Ou alors, il y a du second degré !!!

Confirmation de Google Pigeon

On notera encore une fois que Google n’a pas souhaité s’exprimer officiellement sur cette mise à jour. La confirmation nous vient d’une conversation entre un référenceur français et Zineb Ait Bahajji, Googleuse que nous connaissons via les Hangouts pour les webmaster.

 

Qu’est-ce que Google Pigeon ?

L’algorithme du moteur de recherche a désormais pour objectif de nettoyer les résultats de la recherche locale et de Maps. Il s’attaque donc à la sur-optimisation de la géolocalisation sans que l’on ait forcément les indicateurs pris en compte. Il souhaite trier les résultats locaux avec la même finesse que la recherche globale. Nous ne parlerons pas de recherche universelle car celle-ci n’existe plus vraiment.

Lutte contre les spammeurs et autres plombiers

Cette mise à jour va donc améliorer la prise en compte des informations liées à une recherche et notamment la carte de résultats, le Knowledge Graph, l’orthographe, les synonymes, la distance entre la demande et l’offre… Mauvais résultats locaux

Référencement géolocalisé : retour d’expérience aux Etats-Unis

Moz a ainsi constaté une baisse des résultats faisant apparaître la carte de géolocalisation ainsi que le nombre de résultats dans la carte. On notera aussi un resserrement au niveau du périmètre devenu moins large et donc plus précis. Les experts de Search engine land ont noté de leur côté l’importance prise par les annuaires géolocalisés tels que Yelp et Trip Advisor. Les référenceurs et experts du référencement local interrogés par Moz chaque année ont classé les principaux facteurs d’optimisation ainsi :

  1. L’autorité du site

 

  • La proximité physique entre la demande et l’offre

 
 

  • La qualité et l’autorité des liens

 
 
Référencement géolocalisé

Nouveautés Google Mobile

Si à la mise à jour de Google Pigeon, on ajoute la dimension assistant personnel des mobiles avec Ok Google notamment, on aborde de nouveaux usages et de nouvelles fonctionnalités proposées aux mobinautes. Location Aware est un nouveau serive de Google qui associera votre recherche vocale à la géolocalisation des réponses proposées.  

Comment échapper à la sanction de Google Pigeon ?

Comme nous le précisions, l’avantage est encore une fois donné aux gros sites. La mise en avant de Yelp et autres annuaires locaux justifie la nécessité de référencer votre site sur ses annuaires. Là où vous ne passerez plus, il vous faudra être visible grâce à votre page dans ses annuaires. On se retrouve dans la même situation que la concurrence des places de marché sur le SEO pour les e-commerçants.
Et pour les autres indicateurs, on se retrouve dans une stratégie d’optimisation classique selon les référenceurs américains.

Référencement local : Ce qu’en pense Internet Communication

Pour notre expérience, on notera l’importance de quelques indicateurs supplémentaires :

  1. Les rich snippets pour la géolocalisation avec un tagage pertinent des pages (Schema.Org)
  2. La synchronisation du site avec votre page locale Google+ (Rel publisher).
  3. Travailler pour votre Knowledgegraph avec des contenus, des images adaptés (Script application ld+json)
  4. Les avis clients sur votre page Google+, un classique mais qui sert toujours !

 

Bing : les progrès de la recherche image<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

La recherche image, un axe d’optimisation de votre SEO

Nous évoquions ce point dans un précédent article en mettant en avant la concurrence acharnée que se livraient les différents moteurs de recherche :

  1. Google
  2. Bing
  3. Mais aussi Baidu

Comme nous le rappelions, la recherche est autant importante du fait des usages que des axes de développement que permettent les nouvelles technologies.
On connait le succès des réseaux sociaux d’images (Instagram, Pinterest) et le succès de Google image, 2ème moteur de recherche en France.

Bing reconnait le genre et l’âge des personnes photographiées

Bing, moteur de recherche d'image
Vous me direz que pour le référencement naturel, ce n’est peut être pas la prouesse que l’on attendait d’un moteur de recherche. Mais imaginons la capacité d’analyse des contenus visuels des robots quand ils sont capables d’analyser les traits d’un visage pour définir s’il s’agit d’une femme ou d’un homme et ensuite définir son âge.

Bing vous propose de tester http://how-old.net

Bing avait présenté en avril dernier cette toute dernière innovation. Aujourd’hui, cette fonctionnalité n’est pas encore intégrée au moteur de recherche par défaut. Mais il existe un site dédié où vous pouvez faire l’expérience de ce nouvel outil d’analyse : http://how-old.net
Il est ainsi possible de faire une recherche image et de soumettre tel ou tel image à l’analyse ou alors de proposer votre photo.
Analyse du genre et de l'âge avec Bing
Dommage qu’il me vieillisse mais sinon c’est plutôt bien vu  !!!

Google + est toujours un bon outil de référencement naturel<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Google +, le réseau social qui devrait survivre

Voilà quelques semaines que Google+ est petit à petit vidé de ses fonctionnalités. Les Hangouts, les images, la création de compte. On peut y voir la pérennisation de la plateforme, elle est aujourd’hui considérée comme un outil Google comme les autres.
Là où Google va beaucoup plus loin, c’est sur l’accès au réseau social. Il n’est plus du tout lié à votre compte Google. Il y a encore quelques jours, vous pouviez accéder à votre compte Google+, quelque soit le service utilisé. Il suffisait de cliquer sur votre nom, en haut à droite de la page. C’est fini !
Accès au compte Google+Un réseau social qui n’est pas mort mais qui devient moins accessible…

Les héritages de Google+ pour le référencement naturel

Avec l’arrivée de Google+, Google avait mis en place l’authorship. Une évaluation des articles selon la signature de l’auteur. Il comptait d’une certaine façon remplacer le Page Rank par l’author-rank. Avec ce principe, nous pouvions bénéficier d’un petit visuel en plus : la photo de l’auteur dans la méta-description.
Ranker grâce à l'auteurL’auteur était une information trop facile à hacker et rapidement Google aurait abandonné cet indicateur.

Author et publisher, les balises qui rankent

Avec le #SMX, on ne s’ennuie jamais. Et pour preuve, voilà qu’on y déterre de vieilles expériences googliennes.

Il est vrai que nous avions vu disparaître nos chères trombines des Serps mais rien n’indiquait que l’information n’était plus utilisée par Google. D’ailleurs, pour ce qui concerne le Publisher, son intérêt était toujours évident pour le Knowledgegraph.
Ainsi, il serait recommandé de réutiliser les deux balises :

  1. <link rel=”authorhref=”https://plus.google.com/votre ID”/>
  2. <link rel=”publisherhref=”https://plus.google.com/votre ID”/>

Quand on vous disait que Google+ n’était pas mort !

Voilà une occasion de remettre le nez dans votre profil, dans votre page pour optimiser la visibilité de votre site.
On ajoutera à cela la possibilité de squatter les Serps grâce à Google+, du moins auprès de son réseau de contacts : une 8ème position sans rien faire, ça ne se refuse pas !
Google+ pour optimiser son SEO
 

Quelques questions ? Contacter Internet Communication

Faire des liens, ça fait peur !<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Les liens ne comptent plus pour le référencement naturel

On connait la fragilité des moteurs de recherche face à la manipulation de liens. Tous ont osé penser un monde SEO sans liens, à contre courant de l’origine d’Internet. Mais tous ont dû faire machine arrière. Yandex a longtemps prôner l’indépendance de son moteur de recherche face aux liens et pourtant, il a dû récemment changer d’avis.
Ainsi, à force d’Hangouts et d’interprétation à coups de pelles, il faut que ça rentre… les Googlers semblent avoir gagné leur pari. Plus personne ne veut entendre parler de campagne de liens de peur d’une éventuelle sanction… On ne sait pas laquelle d’ailleurs. Se priver des fondements de l’algorithme de Google ressemble quelque peu à un suicide. Voyons cela de plus près.
Stratégie de liens pour le SEO

Google et ses fidèles conseillers ont réussi à semer le doute

Pourtant de ce côté, on pourrait plutôt parler de stratégie de flottement. Entres les différentes annonces, on peut noter que les équipes de Google ne semblent pas tout à fait maîtriser les mises à jour de l’algorithme et leurs conséquences :

  1. Https : tous les sites doivent passer en Https pour bénéficier du doux regard de Google sur vos contenus. Dans les faits, peu de sites ont suivi le mouvement et les conséquences sont pour l’instant non notables pour motiver les récalcitrants à mettre leur site à jour.
  2. Mofile friendly : on avait salué la qualité de la communication pour préparer tous les webmasters à cette gigantesque révolution. Nous nous y sommes tous préparés et tout cela pour rien, il faut l’avouer. Nous attendons le second souffle de platypus, l’index Mobile, mais sans grande conviction…

Nous voulons bien croire qu’il s’agisse de tests pour mesurer l’impact des effets d’annonce. Mais cela ressemble plus à un loupé,  tout bêtement une erreur de communication. On peut être le champion des moteurs de recherche et ne pas savoir parler à ses utilisateurs même après la communion proposée lors de la fin des webmastertools :

…les amateurs, les entrepreneurs, les experts en SEO, les responsables marketing, les programmeurs, les graphistes, les développeurs d’application et, bien sûr, les webmasters.

Alors pourquoi faire confiance à Google quand il parle de liens alors que ces dernières annonces ont démontré un manque de causalité évident ?

Nouveau syndrome Google : Linkophobia

Search engine Land nous propose une analyse sur les raisons de la peur et l’incompréhension voire le manque de connaissance. Les phénomènes de peur étant toujours liés au niveau d’ignorance, il y a aujourd’hui suffisamment de matière pour faire peur à tous les site du web…
Peur des changements chez Google

John Mueller nous dit :

Machine translate
Attention, dans les lignes suivantes, nous vous proposons une traduction humaine et très synthétique. Nos excuses aux vrais tarducteurs. En même temps, ce sont des textes de Google…

We do use links as a part of our algorithms, but we use lots and lots of other factors
Nous utilisons les liens dans l’algorithme mais nous utilisons aussi de nombreux autres indicateurs.
Le httpps ou l’index mobile, c’est de cela qu’il s’agit ?
So only focusing on links is probably going to cause more problems for your website than it actually helps
Se concentrer uniquement sur les liens pourrait vous apporter plus d’ennuis que de vraies solutions.
On sent comme une petite menace, non ?
Building followed links is against guidelines
Créer des liens est non conforme aux recommandations de Google.
Ce qui est assez faux d’ailleurs. Il faut relire !

Heureusement que Matt Cutts nous avait assuré d’un avenir meilleur

…backlinks still have many many years left in them.
Les liens ont encore de beaux jours devant eux.

Il ne vous reste qu’à vérifier par vous même. Ce qui a toujours fait la force d’Internet, c’est de pouvoir mettre en place des stratégies, de les tester et de vérifier. Ne nous trompons pas, Internet n’a pas autant changé et nous pouvons le vérifier par nous-même, quoi qu’en disent les Googlers !

Stratégie et campagne de liens et non bourrinage

Evidemment, nous sommes d’acord pour reconnaître que certaines stratégies de liens n’ont plus leur place dans le référencement naturel aujourd’hui. Nous avons connu quelques mises à jour et recommandations qui le confirment : Penguin notamment a été l’occasion de repenser la qualité des liens. Mais un monde avec des liens de qualité est possible, dommage de s’en priver, non ?
 

Quelques questions ? Contacter Internet Communication

 

Les critères de référencement naturel : SEO Factors<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Etude SEO sur les indicateurs de référencement naturel

Voilà une étude qu’il faudra prendre le temps de lire. Plusieurs raisons à cela et notamment le fait qu’il s’agisse d’une étude menée auprès de référenceurs et de spécialistes du référencement naturel français. Aucun doute sur les excellentes équipes de Moz ou Search engine land, mais si on peut avoir un retour d’expériences sur notre marché et avec toutes nos bizarreries sémantiques, c’est encore mieux !
Etude sur le référencement naturel

46 référenceurs donnent leur avis

La liste est longue mais elle vaut le déplacement pour votre veille personnelle à minima :

On appréciera immédiatement le choix des différents profils, avec un peu de white hat et black hat, des scientifiques et les pères fondateurs du référencement naturel, les dinosaures comme ils disent. Et des surprises il faut bien le dire.

63 indicateurs de référencement naturel analysés

Et c’est là l’originalité de l’étude, découvrir ce que pense chaque référenceur sur ces indicateurs et constater quelques désaccords mais aussi une vision globale faisant l’unanimité. Ce que vous pourrez retrouvez dans l’infographie.
La liste complète des critères SEO soumis à l’analyse se retrouve en fin de page. Elle est à conserver voire à imprimer et afficher dans votre bureau. C’est certainement à comparer au projet Opquast en plus accessible et avec une vision croisée en plus.
Voici la liste des indicateurs de référencement naturel évalués par le panel de référenceurs français de l’étude :

Le mot clé est intégré quelque part dans la balise title, qualité de liens entrants en dofollow, contenu original, ancres des liens entrants, autorité du domaine, diversité des ancres des liens entrants, pertinence du domaine référent, maillage interne du site, nombre de domaines différents dans les liens entrants du site, le mot clé est intégré dans une balise H1 de la page, Champ lexical du contenu (Indexation Sémantique Latente), nombre de liens entrants en dofollow, texte qui entoure le lien référent, position des liens dans le contenu, nombre de liens internes entrants, diversité des sources de liens, qualité de liens internes entrants, exhaustivité sémantique de la page, géo-localisation, site mis à jour fréquemment, ancres des liens internes, nombre de liens sur la page référente, age de la page, pagerank des pages qui font des liens vers le site, liens de mauvaise qualité vers le site, contenu de la page dupliqué, la longueur du contenu textuel de la page, thème des pages en lien sur notre page, taux de clic dans les SERP sur le mot clé, position du mot-clé dans le contenu, age du nom de domaine, nombre de pages différentes dans les liens entrants du site, diversité des IP des liens entrants, EMD : Exact Match Domain, taux de rebond après une SERP, nombre de pages indexées du site, diversité des ancres des liens internes, présence du mot clé dans le nom de domaine, TLD du domaine, vitesse de chargement de la page, intégration des microformats, densité du mot-clé dans le contenu, qualité de liens entrants en nofollow, nombre de liens entrants en nofollow, présence du mot clé dans le sous-domaine, nombre de liens sortants dofollow, site compatible mobile, qualité des liens sortants, qualité du code HTML, adresse IP du serveur, partages sur les réseaux sociaux, localisation du serveur, présence dans Google Actu, nombre de liens sortants nofollow, attributs title des liens, propriétaire de site pénalisé, Whois public, informations Google Adwords, Google Authorship, HTTPS, priorité indiquée dans le sitemap, site vérifié dans Google Webmaster Tools, utilisation de Google Analytics

Les résultats de l’analyse des critères de référencement naturel

Vérité SEO

Les 5 meilleurs indicateurs pour le référencement naturel :

  1. La balise title et donc les mots clefs utilisés dans la balise
  2. Qualité des liens dofollow, liens pointant vers votre site en dofollow (qualité du domaine, page,…)
  3. Contenu original, soit des textes uniques et bien écrits pour le web
  4. Autorité du domaine, soit l’historique d’un site web
  5. Ancres de lien, soit le texte sur lequel le lien est posé.

Les 5 diagnostics partagés par les référenceurs

  1. Https
  2. Webmaster tools
  3. Priorités du stemap
  4. Google adwords
  5. Google analytics

Il s’agit bien évidemment ici d’un accord sur le fait que ces indicateurs ont aujourd’hui peu d’importance sur votre SEO.
L’étude présente également la liste des surprises, soit les indicateurs qui représentent une relative nouveauté dans leur prise en compte dans des campagnes d’optimisation SEO.

  1. Contenu de page dupliqué
  2. Taux de rebond
  3. Page Rank des pages référentes
  4. Qualité des liens entants en nofollow
  5. Thèmes des pages qui font le liens

Ce que les référenceurs ne partagent pas
Le désaccord relève ici des profils différents des référenceurs et de fait de leurs pratiques d’optimisation : Google friendly or not ?

Optimisation par domaine de priorité

Pour conclure, les catégories d’optimisation par ordre d’importance mais là, ce sera sans grande surprise. Voilà des sujets qui animent la communauté SEO au rytthme des mises à jour de l’algorithme de Google ou déclarations tonitruantes des googlers…
optimisation-seoCette étude a le mérite d’accentuer encore plus le partage du savoir au sein de la communauté des référenceurs et de poser les choses. A chacun de vérifier ce qu’il en est pour son site…

Quelques questions ? Contacter Internet Communication

Optimisation des images pour le référencement naturel<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

L’importance des images est trop souvent sous-estimée

Pour Google ou Bing, les images ont pris beaucoup d’importance dans la présentation des résultats de recherche. A en croire un article du Journal du Net de novembre 2014, le classement des 5 premiers donne ceci :

  1. Google.fr
  2. Google image
  3. Yahoo
  4. Bing
  5. Ask

Et ce qui est le plus incroyable, c’est que dans bien des cas, nous nous contentons d’utiliser des images prises sur Internet, ayant pour seule qualité d’illustrer une page, un article ou une fiche produit.

Comment optimiser les images pour le SEO ?

L’optimisation des images est simple et très limitée selon les consignes de Google. La première question à se poser est la source de l’image en comparaison aux grands discours de Google sur le duplicate content. Comment peut-on espérer bénéficier de points positifs dans l’évaluation faite par les robots des moteurs si l’image n’est pas originale, mal nommée et pas décrite…

Une image c’est une image unique ?

On le verra, si ce principe est loin d’être une règle, on peut tout de même imaginer qu’il pourrait offrir quelques avantages. Nous avions déjà abordé ce point dans un précédent article, sur l’importance d’identifier qui utilise telle ou telle image.
Google image permet d’identifier qui utilise une image à partir d’un fichier ou d’une Url :

Google imageLes balises utiles pour les images

Pour travailler le référencement des images, il faudra faire attention de bien préparer notre fichier image et de compléter les informations utiles. En théorie, les différents CMS proposent de compléter :

  1. Le titre de l’image
  2. La description
  3. La balise alt ou texte alternatif
  4. Le lien sur l’image

Il y a des pistes d’amélioration avec les micro-données mais parfois, la solution peut être très simple à mettre en place. L’expérience montre avant tout l’importance de la balise Alt et surtout du lien sur l’image. Encore une fois avec Google, pas de résultats sans lien !

Google s’est lancé dans le tagage des images

La solution pour les moteurs de recherche est évidemment de proposer leur propre balise Alt et donc pour cela, il faudrait réussir à analyser un contenu visuel d’une image comme le ferait un humain. Un apprentissage possible pour les robots mais pas toujours performant. Souvenez-vous du test présenté par Google en novembre 2014 :
Référencer les images

Baidu ferait mieux que Google

Si la présentation de Google avait paru assez satisfaisante, elle n’était surtout pas généralisée à la recherche et ce n’est toujours pas le cas aujourd’hui. Mais à l’heure où Google fait des annonces sur ses outils sociaux d’images, d’autres moteurs de recherche continuent ce travail d’intelligence artificielle ou machine learning et notamment Baidu, le moteur de recherche chinois. Avec Deep images, Baidu est allé beaucoup plus loin que les autres moteurs et a montré plus de précision au Challenge image :

  1. Baidu : 95,42%
  2. Google : 95,2%
  3. Bing : 95,06%

Reconnaissance d'images avec Baidu

Optimisez vos images avant que Google ne le fasse pour vous !

Nous avons échappé aux Google-glasses alors profitons de ces délais de mise au point technique et d’enjeux financiers pour utiliser au mieux les outils de Google et des autres moteurs de recherche. Etre visible par ses clients c’est toujours être là où ils sont.
 

Google Phantom, on ne rêve plus !<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Google Phantom, le filtre tenu secret

Voilà un cas intéressant d’une mise à jour de Google qui fonctionnerait dans l’ombre pour corriger tout ce qui ne marche pas du côté du référencement naturel et de l’index Google. Ce filtre serait intervenu en complément de grosses mises à jour attendues comme Panda notamment en 2012 et plus récemment en avril 2015.

Mais qu’est-ce que Phantom ?

Phantom est enfin reconnu

Google Phantom, le contre-test de vos pages

Selon Google et surtout les spécialistes américains, Phantom fonctionnerait comme une validation post algorithmique. En effet, dans le cas de Panda ou Penguin, Phantom serait intervenu dans un second temps pour valider ou invalider les contenus qui auraient été jugés comme positifs. On pourrait donc imaginer que Phantom s’intéresse beaucoup plus aux mises à jours algorithmiques qu’à votre site. Phantom est l’outil de contrôle des robots de Google. Il surveille leur travail et le réévalue si nécessaire. C’est un peu le chef d’équipe des mises à jour de Google.

Google reconnait la Mise à jour Phantom 3 ans après

Search Engine Land apporte ainsi la confirmation de l’existence de Phantom. On ne sait pour quelle raison Google a tenu secret cette mise à jour ou Quality update pour être plus précis. Car ce serait bien la spécificité de Phantom de venir corriger le classement qualitatif de l’algorithme.
Phantom est certainement le filet de Google, raison pour laquelle il ne pouvait valider son existence plus tôt. On se souvient des dégâts de Panda et Penguin sur la première version notamment. Admettre que Panda ou Penguin n’étaient pas sûrs en termes de résultats aurait alors encouragé la contestation de l’époque. On trouverait ainsi la première trace de l’existence de cette mise à jour mystérieuse en mai 2013…

Indicateurs de Google Phantom

Evidemment si Google admet du bout des lèvres son existence, il n’est pas encore prêt à nous lister les indicateurs pris en compte pour le référencement naturel. On trouvera alors chez hmtweb.com quelques éléments d’explication possibles.
Ainsi, Phantom ne s’intéresserait qu’à la qualité du contenu. Encore une fois, les liens ne sont pas pris en compte, on sait à quel point Google est fragile sur ce sujet.
Pour la qualité du contenu, les points faibles seraient :

  1. Qualité des textes et des réponses apportées
  2. Des pages présentant beaucoup de vidéos et peu de textes
  3. Des contenus syndiqués
  4. Mauvaise expérience utilisateur et notamment landing page SEO de mauvaise qualité

Pour l’heure, Phantom a surtout impacté le web américain mais il est sage de surveiller son indexation et son positionnement dans les Serps aux dates connues de mise à jour. Des explications pourraient y être trouvées…

Découvrez Google search Console<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Fin des Google webmastertools

Google a publié aujourd’hui une annonce concernant la fin des webmaster tools. Non parce qu’il ne souhaite plus du tout partager ses outils d’analyse avec l’ensemble des webmasters mais parce qu’il a découvert de nouvelles professions du web à séduire pour toujours plus de référencement naturel Google friendly.
On ne parlera plus du webmaster tools mais dorénavant du : Google search console !

Nouvel espace webmaster chez GoogleGoogle s’adresse enfin aux référenceurs : Google search console ?

Avec une liste toute neuve de professionnels potentiellement intéressés par ses outils d’analyse, Google mettrait fin à la querelle qui l’oppose aux référenceurs. Querelle de bon ton puisqu’ils sont ses principaux cobayes et Google aime tant jouer aux effets d’annonces avec eux. Oui, Google rit bien souvent à nos dépens et nous lui retournons bien la pareille 😉

…ils (les webmasters) ont pu créer de superbes sites Web que nos systèmes adorent afficher dans la Recherche Google.

Interdit de rire !!!

Un monde de webmasters et autres

Pendant 10 ans, Google se serait intéressé à nos usages et aurait compris que nous étions toutes et tous très différents…

…les amateurs, les entrepreneurs, les experts en SEO, les responsables marketing, les programmeurs, les graphistes, les développeurs d’application et, bien sûr, les webmasters.

Ainsi, Google ne veut oublier personne et surtout que personne ne passe à côté des outils de Google. Evidemment, il restera les outils pour webmasters de Bing si jamais ce dernier ne les renomme pas dans la foulée…
Console Google search pour tous les professionnels

La rupture sémantique n’est pas tout à fait acquise

…nous espérons voir des utilisateurs de tous types, notamment des webmasters…
La mise en place de Google search console devrait se faire progressivement dans les semaines qui viennent, avec une nouvelle interface. Du côté des nouveaux outils, aucune annonce n’a été faite. Et pourtant il reste des choses à faire pour les amateurs, les entrepreneurs, les experts en SEO, les responsables marketing, les programmeurs, les graphistes, les développeurs d’application et, bien sûr, les webmasters.
Juste une petite mise à jour sur le Not Provided ferait extrêmement plaisir aux webmasters et aux autres : amateurs,  entrepreneurs,  experts en SEO,  responsables marketing,  programmeurs,  graphistes,  développeurs d’application et, bien sûr,  webmasters.
Un petit effort Google pour que nous soyons tous à la fête !!!

Proposer votre site sur Google news<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Google news, une meilleure gestion des contenus

Lors du dernier Hangouts en français pour les webmasters, nous avons pu bénéficier d’une présentation de Google news avec les consignes pour proposer votre site et comment gérer vos contenus. Notons que Google news accepte en théorie tout site proposant des contenus originaux d’information.

Pourquoi intégrer Google news ?

Cette question ne mérite pas forcément de réponse tant l’enjeu peut paraitre évident. Il est question de visibilité, de trafic et de notoriété. Google news peut impacter votre référencement naturel de manière déterminante. N’oublions pas tout de même que Google n’accepterait que 20% des sites proposés comme évoqué par Laurence, seul chiffre donné lors du hangout…
Google actualités un atout seo

Comment intégrer Google actualité ?

Pour cela, il est recommandé de prendre en compte l’espace d’aide de Google. Mais selon les propos de Laurence, il est très important de fournir certains élements techniques :

  1. Plan du site pour Google actualité
  2. Une catégorisation pertinente
  3. Des mots clefs
  4. Tagage des contenus selon Schema.org
  5. Une bonne gestion des contenus proposés et leur éventuelle mise à jour (2 fois par jour)
  6. Le choix de la rédaction à paramétrer : les 5 meilleurs articles

Un Hangout de qualité

Le nombre ne faisant vraiment pas la qualité (5 participants actifs, 3 de chez Google), nous saluerons la qualité de l’intervention de Laurence Kozera Foucault à plusieurs niveaux. Sa qualité d’expression, son animation et sa disponibilité. Evidemment, certains sujets sont restés interdits soit selon les consignes de Google (on en parle pas, on ne donne pas de tuyaux…) soit pour un partage des compétences entre les différentes équipes de Google. Mais heureusement Zineb et Vincent étaient là !
Et merci aussi à Olivier Andrieu pour son assiduité sur les différents Hangouts. Mais il est vrai que ce hangout aurait mérité une plus grande audience, on aurait comme un problème de communication chez Google.
Autant le hangout sur la mise à jour Mobile friendly avait bénéficié d’un teasing hors du commun, le hangout Google news quant à lui, un peu comme l’interface de l’outil, ne semble pas bénéficier d’une grande priorité chez Google…

Etre premier sur Google news ?

Voilà la seule question qui garde encore tout son mystère…

Positionnement sur Google actualité

Google platypus met fin à Mobilegeddon !<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Mise à jour Mobile friendly : de Mobilegeddon à Google Platypus ?

Nous attendions la plus grosse mise à jour de Google depuis Mayday et nous n’avons pas forcément vu grand chose… Mobile friendly devait impacter 50% des requêtes alors personne ne pouvait passer au travers…
Et Google nous l’a encore confirmé sur le blog dédié à Adwords, le mobile n’est plus en passe de devenir incontournable, il est tout simplement passé en tête des usages !

Les requêtes mobiles sont devenues majoritaires dans 8 pays dont les Etats-Unis et le Japon !

Hormis le fait que Google ne donne pas trop d’infos sur les pays concernés, cette annonce confirmerait de nouveaux comportements où le mobile passe largement devant les ordinateurs de bureau, portables et tablettes.
Nouvelle mise à jour de Google pour le mobile

Google ornithorynque ? De quoi s’agit-il ?

Lors du dernier Seo Mix, les équipes de Google en la personne de Gary Illyes auraient admis que l’impact mobile a été moins fort qu’attendu. Même si nous devons prendre en compte les prochaines améliorations du Mobile friendly, son impact sera toujours modéré.
Alors on quitte le catastrophisme biblique pour la zoologie tant appréciée chez Google. On imagine que le côté semi-aquatique, mammifère ou non mais pouvant s’avérer redoutable serait plus à l’image de ce qui nous attend… Il est en effet venimeux !

Google ornithorynque, ce qu’il faut faire

Diagnostic du trafic mobile

La première chose à faire est de prendre en compte les habitudes de comportement de vos clients. Dans votre analytics, faites bien la part entre trafic ordinateur/tablette et trafic mobile. Il faut ainsi identifier les indicateurs pertinents : :

  1. Pourcentage de trafic mobile et trafic ordinateur
  2. Principales sources de trafic : SEO, SEA, Médias sociaux
  3. Evolution du trafic mobile lié au référencement naturel depuis le 21/04/2015

Site mobile friendly, ce qu’en pense Google

Dans l’interface de votre webmastertools, prenez en compte l’analyse mobile de Google ainsi que les recommandations. La liste des recommandations est en effet beaucoup plus complète que sur l’outil de test.

Site responsive, refonte ou création d’une application

  1. Si vous utilisez un Cms, à partir d’un simple module vous pourrez transformer votre site en site responsive. Ce qui vous permettra dans bien des cas de répondre à minima aux exigences de Google.
  2. Si pour différentes raisons, la stratégie responsive n’est pas envisageable, misez sur un sous-domaine dédié au mobile : mobile.monsiteinternet.com
    En utilisant un thème dédié au mobile, vous pourrez toujours adapter vos pages principales pour les utilisateurs de mobile à moindre coût.
  3. Si l’heure est à la refonte, exigez dans votre cahier des charges, une solution mobile adaptée à vos cibles.

Un site mobile sinon rien ! MAJ pour le 25/04/2015

L’effet Google Platypus

L’effet ornithorinque se caractérise peut-être principalement par la nécessité de prendre le temps et de ne pas faire n’importe quoi. Si vos clients n’utilisent pas le mobile, aucune raison de se précipiter. Le mobile sera un canal complémentaire le moment venu. Dans tous les cas, votre référencement naturel auprès des internautes utilisant un navigateur complet ne sera pas impacté. On ne parle ici que de  sanction SEO pour vos positionnements mobile !
 

Firefox, Apple, Yandex, Edge et la fin du monopole de Google ?<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Google : La fin d’un monopole ?

Avec Firefox, les relations ne s’améliorent pas pour Google. Après l’affront des Etats-Unis où Firefox a abandonné Google comme moteur de recherche par défaut pour son navigateur, il y a eu la Turquie et maintenant l’Afrique. A quand l’Europe ?Firefox et Google

Firefox et un choix plus important de moteurs de recherche

Firefox a non seulement modifié son outil de sélection des moteurs de recherche, on passe ainsi plus facilement d’un moteur à un autre en fonction des besoins :

  1. Google
  2. Yahoo
  3. Bing
  4. DuckDuckGo
  5. Amazon
  6. Ebay
  7. Wikipédia

Moteur de recherche par défaut : Firefox fait bouger les parts de marché

Nous avions pu constater l’impact de Firefox sur le marché américain de la recherche par son nouveau partenariat avec Yahoo. Google avait vu chuter sa domination dès le début du partenariat avec une pérennisation des résultats qui impliquait que les Internautes n’étaient pas seulement surpris.
Même si Google a tenté en vain de rappeler ses ouailles….

Firefox et Yahoo toujours pour la Turquie

Le déploiement de la nouvelle stratégie commerciale de Mozilla se confirme.

Firefox et Orange pour l’Afrique

C’est maintenant au tour d’Orange de se positionner avec Le moteur. On imagine déjà les accords à venir pour la France : Orange ou Qwant ?
Un moteur de recherche français

Pour le référencement, de nouvelles perspectives ?

Si la répartition des parts de marché s’équilibre entre les différents moteurs de recherche, il va devenir très important de surveiller les sources de trafic vers votre site et le positionnement de vos pages pour chaque moteur. Cela va donc impacter la stratégie SEO comme le choix des outils de positionnement. Un rapport unique sur Google pourrait ne plus être suffisant.
Sans parler des avantages que cela peut représenter pour un site sous le coup d’une sanction algorithmique ou manuelle…
Yandex le moteur de recherche

Une optimisation spécifique par moteur ?

Si cette optimisation par moteur existe, il est vrai qu’aujourd’hui, un bon travail fait pour Google impacte généralement les résultats des autres moteurs. Même le récalcitrant Yandex a fini par intégrer les liens dans son algorithme, ce qui prouve encore la proximité dans les choix des indicateurs.

Et encore plus de nouveauté pour les moteurs de recherche

Au delà de la révolution Firefox, on attend aussi beaucoup de l’éventuelle stratégie de référencement naturel proposée par Apple. Les rumeurs gonflent sur un prochain moteur de recherche signé Apple, nous avons hâte d’en découvrir les caractéristiques.

Vers un juste équilibre comme en 1998, année de création de Google !
A cette époque il y avait plusieurs moteurs influents : Yahoo, Lycos, AOL, Alta Vista

Objectivement, nous avons Firefox qui rebat les cartes, Apple qui est attendu et pourquoi pas Bing avec son nouveau navigateur : Edge… Et certains disent que le référencement naturel est mort !!!

Résultats de recherche de Google : Fin des icônes<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Ajouter des émoticônes  aux balises méta

Emoticônes dans les méta

Voilà une astuce qui permettait d’aller plus vite que Google pour personnaliser la page de résultats de recherche. Il y a évidemment les rich snippets qui sont la base de la personnalisation des méta descriptions mais en dehors des images, des étoiles d’évaluation, le stock disponible ou le temps de préparation, les Serps reflétaient une certaine norme voire une certaine rigueur…

Rich snippets pour optimiser le seoGoogle filtre les Unicodes

On imaginait bien que Google ne permettrait pas longtemps cet espèce de grand bazar dans ses pages de résultats de recherche. Le référencement naturel ne doit jamais être une sur-optimisation, c’est à dire, ne jamais sortir des 40 pages de consignes officielles de Google. Chez Google, on a le droit à :

  1. Un titre
  2. Une méta-description
  3. Voire une méta-description avec 300 caractères selon les humeurs de Google…

Et ça suffit. Ca fait des années que c’est comme ça et ce n’est pas près de changer !
On a eu le droit à la trombine de l’auteur et quelques infos sur sa réputation mais ça aussi c’était trop pour Google… Ainsi, il mit un terme au rel author… On peut encore voir un peu de rel publisher mais cela semble plus relever d’un sursaut de vie de Google+.
Rel Publisher pour une méta personnalisée

Une future sanction Google pour les sites utilisant des emoji ?

A première vue, pas cette fois. Google aurait déjà mis en place un filtre pour les Unicodes. Et devrait suivre un filtre spécifique pour les autres encodages…

 C’est fini avec Google mais toujours possible avec Bing

Pour Bing, on est pas trop sûre, en effet, Bing a la fâcheuse habitude de suivre les décisions prises par Google. Donc, sortir du lot en ajoutant un emoji ou émoticône ne sera bientôt plus possible. Ne perdons pas de temps à modifier nos balises titre ou méta description pour être plus geek que les concurrents.

Nouveau filtre et importance des méta descriptions

Cette anecdote est aussi une occasion pour rappeler l’importance des méta-descriptions dans l’optimisation du référencement naturel. Si les émoticônes étaient surtout utilisées pour optimiser les clics et donc travailler le CTR. Il faut prendre en compte du point de vue de Google l’importance des contenus proposés dans les balises méta.
Pour reprendre les consignes de Google :

  1. Pas de balise Title en double
  2. Pas de méta description en double
  3. Pas de titre ou description trop courts
  4. Attention aux titres non informatifs

Tous ces points sont évidemment visibles au niveau du webmaster-tools. On ajoutera surtout la nécessité de personnaliser les méta. Il n’est donc pas possible d’utiliser une solution qui les automatise…

Temps de téléchargement des pages, ça compte plus !<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Mobile friendly et c’est fini !

Google ne parle plus que de ça, il faut un site compatible pour le mobile, sinon, vous ne serez plus visible pour les Internautes utilisant un smartphone. D’un point de vue technique, c’était déjà le cas de toute façon.
Google nous a préparé depuis des mois au passage Google friendly et donc naturellement, il peut aujourd’hui nous affirmer que le temps de téléchargement des pages n’aura plus d’importance. Dire que Google a fait des heures de vidéo autour de cette question…

Temps de téléchargement, ce qu’il faut en retenir

Avant tout, le temps de téléchargement des pages est surtout une notion d’ergonomie, un indicateur pour l’utilisateur. En réduisant le temps de chargement, on améliore la qualité du surf.
Temps de chargement
Pour Google et les robots des moteurs de recherche, on peut se dire que si un site charge plus vite, le crawl devrait être amélioré. C’est d’ailleurs ce qui nous a été dit depuis Caféine ou chez Orange pour les dernières grosses mises à jour.
De là à imaginer que le poids des pages impactait le positionnement dans les Serp’s, et bien, on y a cru ou en tout cas on l’a craint. On sait comment aujourd’hui Google surveille le CTR, le taux de rebond, alors le poids des pages impacte forcément ces indicateurs. Cela concernerait les sites vraiment très lents.

Le Hangout de John Mueller : webmaster tools

Voici donc la réponse de John Mueller :

I don’t know how much of that [PageSpeed ranking factor] is still used at the moment. So we do say we have a small factor in there for pages that are really slow to load where we take that into account. But I don’t know how much that’s actually still actually still a problem in ranking.

On appréciera le fait qu’il ne sache pas vraiment. Mais ce qu’il faut en retenir, c’est que le temps de chargement d’une page est un tout petit indicateur et l’on ne sait pas s’il est toujours utilisé pour le SEO. Tant qu’il garde sa place dans le webmastertools, on pensera à nos utilisateurs, aux Internautes et tant mieux si cela impacte un peu notre référencement naturel.
Le temps de téléchargement des pages c’est avant tout le signe d’un site bien conçu, de son hébergement au choix des thèmes et plugins. On continuera à jeter un coup d’œil dessus, sait-on jamais…

Rattrapage SEO, ce qu'il faut savoir !<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Beaucoup d’actualités pour votre référencement naturel

Nous sortons de la semaine la plus importante à en croire Google, avec la mise en place du filtre Mobile friendly ou Mobilegeddon.
Deux études pour essayer de comprendre l’impact immédiat, une étude américaine d’Advanced web ranking et une étude française de Yooda.
Constat de la mAJ de Google après le 21 avril 2015En rouge, on observera les forts changements dans les SERPs pour les sites américains.

http://www.rueducommerce.fr 5900 3740 -36,61%
http://www.skyrock.com 9625 7670 -20,31%
http://www.premiere.fr 12130 9785 -19,33%
http://www.canalplus.fr 15640 13450 -14,00%
https://www.secure.bnpparibas.net 13605 12005 -11,76%
http://www.doctissimo.fr 10560 9660 -8,52%
http://www.economie.gouv.fr 17270 16215 -6,11%
http://www.leboncoin.fr 3465 3255 -6,06%
http://france.lachainemeteo.com 9775 9245 -5,42%
http://www.laposte.fr 25200 24200 -3,97%

Pour la France, on pourrait ici constater les variations pour les sites les plus importants. Liste plus complète à découvrir sur le site du JDN.

Pour tout savoir sur le référencement naturel

Retrouvez sur le site du SEO Camp, l’association des référenceurs, les vidéos des différents intervenants des derniers SEO Camp. Pour comprendre comment les  pontes du référencement travaillent, leurs astuces, leurs stratégies et toutes les tendances du SEO.

La stratégie de seloger.com

Cocon sémantique au Tuni’seo

Les techniques utilisées pour déjouer l’algorithme de Google

Les pénalités en SEO

Des vidéos à voir absolument quand on se désespère du référencement naturel  et que l’on croise partout des Cassandres du SEO. Les porteurs de mauvaises nouvelles et autres déprimés du web devraient y jeter un œil. Il y a un lendemain pour le référencement naturel, ne misez pas tout sur vos campagnes Adwords, Facebook et autres objets publicitaires.
Maintenant, il faut prévoir un peu de temps pour bien digérer tout ça.  😉

Jouer au référencement naturel : le langage naturel<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Difficile métier de référenceur

Vous en avez assez de passer vos journées sur Trends, Keywords tools, Analytics voire le Zeitgeist à la recherche du mot clef idéal. Google vous menace dès que vous scrapez ses pages de résultats et la complétion. Il est temps de prendre un peu de repos.
Bon usage de la complétion

Envie de mieux connaître les Internautes pour votre référencement naturel !

Le mot clef idéal est évidemment celui qu’utilisent les Internautes. Et parfois, on a du mal à les suivre vos clients. Comment parlent-t-ils de leurs besoins, des produits et de leurs recherches désespérées ? Google nous incite à nous raccrocher au langage naturel, d’oublier un peu les méta-langages et les mots rares…

Que savez-vous de vos clients ?

Le Not provided n’a pas tué la connaissance des mots clefs. En voici la preuve avec cet excellent jeu pour mieux connaître Google et ses utilisateurs. Un jeu basé sur l’Api de Google, sur les résultats de Google suggest.

Deviner la complétion de Google suggest

Le jeu est simple, il vous faut terminer les suggestions de Google sur les thèmes les plus improbables. Voilà une façon de briller devant vos clients et de normer définitivement les conversations en pensant comme les utilisateurs de Google…
Attention, pour chaque suggestion, vous n’avez que 3 possibilités !!!
En avant pour la révision du week-end sur Googlinette 😉
Jeu Google

Un moteur de recherche à résultat unique<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Bing teste la page unique de résultats

Aux Etats-Unis, Bing teste de manière aléatoire une nouvelle présentation pour les résultats de recherche. Ils propose une seule page de résultats avec un commentaire précisant la raison de son choix.
Test de serps pour Bing
Nous abordions précédemment les changements d’algorithme chez Google et la possibilité d’un référentiel pour les principales questions du web. Ici, Bing fait de même mais d’une autre façon, il demande à l’Internaute de suivre son conseil sur la qualité des résultats. Sur une requête générant plus de 5 millions de résultats dans l’index de Bing, il en extrait 10. On notera tout de même qu’il ne nous empêche pas pour l’instant de consulter les résultats médiocres : See all results

Pour le référencement naturel : seule la première page compte

Nous avions l’habitude d’analyser le potentiel de positionnement d’une page, de suivre son optimisation pas à pas pour un seul et même constat : seule la première position dans les Serps garantit d’atteindre les objectifs en termes de clics, de CTR et de transformation.
On analysait parfois les résultats de la 11ème position, souvent meilleure en terme de CTR par rapport à la 8ème, 9ème et 10ème position. Avec un tel modèle, il en est fini des résultats moyens, il faut être excellent.

Est-ce que les Internautes consultent les pages suivantes d’un moteur de recherche ?

Il faudrait d’ailleurs analyser de près le comportement des Internautes lors des recherches.

Combien d’Internautes vont encore en page 2 ?

Il semblerait que face à la somme de résultats si peu qualitatifs, les Internautes privilégient la reformulation de leur question plutôt que de s’aventurer dans les pages suivantes.
Nous avons l’analyse de Google suggest ou Google instant comme élément de confirmation. En effet, nombre d’Internautes préfèrent aller jusqu’au bout de leur idée sans se faire influencer par les requêtes suggérées par Google. Du moins, pour ce qui est de la recherche sur ordinateur de bureau. Avec potentiellement 50% de connexion mobile sur Google, la question doit se poser différemment.
Il nous reste alors l’analyse des requêtes complexes, exactes ou très longues, ces requêtes du langage naturel que Google nous donne à voir chaque année lors de la publication de son Zeitgeist. Les requêtes majoritaires sont des requêtes entre 3 et 8 mots. Les Internautes s’adressent à un moteur de recherche comme ils s’adressent à un ami lorsqu’il lui pose une question. Le langage naturel devient l’objectif de l’optimisation sémantique avant tout.

Google prépare différents outils de réponse unique

Si Google n’a pas encore testé les avantages de la page unique de résultats, il nous a déjà proposé différentes box de résultats confectionnés par ses soins. Des espaces de réponse qui ne laissent aucune place au référencement naturel puisque Google se sert sans donner ses sources ou si peu.

  • Knowledge-graph

Un condensé de données sur un sujet générique ou sur une entreprise, une ville…

Résultat de recherche Google

  • Info-box

Une réponse unique à votre question avec des sources non citées…

Un résultat unique à une question posée à GoogleEst-ce la fin des moteurs de recherche ?

Les Cassandre ont l’habitude d’annoncer régulièrement la fin du référencement naturel, le SEO n’ayant plus de légitimité. Ce serait sans compter sur ce qui fait ce métier, ce savoir, cet intérêt pour le Hacking. Nous nous sommes préparés aux Google glass, nous devons affronter une mise en page nouvelle des résultats. Si ce n’est que ça, nous trouverons… Mais cela fait des années que Google capte de plus en plus de clics dans une page, et ne laissant que très peu de clics pour le positionnement naturel.
Les moteurs de recherche deviennent petit à petit des assistants personnels qu’il va nous falloir maîtriser. La recherche universelle n’est plus et pourtant, nous avons toujours trouvé des solutions pour rendre visible des contenus. C’est un travail qui nécessite de ne jamais se poser. Et c’est pour cela qu’il est passionnant !

Optimiser ou ne pas optimiser son référencement naturel ?<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

L’angoisse des clients des référenceurs

Google a créé un véritable climat de fin du monde ces dernières années. Si l’on prend seulement en compte les derniers filtres Google mis à jour en 2014 :

  1. Panda : Qualité des contenus
  2. Penguin : qualité des liens et des ancres
  3. Payday Loan : requêtes spammy
  4. Page Layout : nombre de publicités excessif par page
  5. Google pirate : lutte contre le téléchargement
  6. Google pigeon : sur-optimisation du référencement géolocalisé

Don’t be evil !

Optimiser son référencement naturel mais comment...
Évidemment on se souvient de l’épitaphe de Google mais il est vrai que son monde idéal crée quelques angoisses au fil des années. Ainsi, de nombreuses entreprises développent une certaine paranoïa et restent intimement persuadés que leur site a été sanctionné ou est blacklisté. On ne dira pas que cela n’arrive jamais mais un  simple retour aux principes de bon sens, voire aux consignes Google friendly débloque souvent la situation.
Et sinon, il y a toujours le gros nettoyage pour éviter la guerre entre concurrents et les doutes de negative seo…

L’angoisse des référenceurs

De notre côté, il existe toujours la tentation de faire vite, d’utiliser des vieilles recettes qui fonctionnent encore mais qui sont loin d’offrir un référencement naturel pérenne. Dur de se débarrasser des mauvaises habitudes. Aujourd’hui, il faut sérieusement se remonter les manches pour avoir de bons résultats SEO.
Mais notre métier c’est aussi beaucoup d’innovation, de tests, d’aventures avec l’algorithme de Google. Ce qui veut encore dire potentiellement des prises de risque. Et si tout le monde est d’accord à la simple perspective des résultats attendus, parfois quand des dégâts surgissent, on sent que la confiance se fissure… N’a-ton pas eu une première plainte en France contre une agence de référencement ?

Un dialogue assez quotidien sur les risques à courir ou non pour être premier dans les Serps

Avec un titre si shakespearien, on aurait pu s’attendre à un développement plus tragique. Et bien, c’est l’occasion de prendre un virage à 180° et de rejoindre le monde de Tolkien. Pour mettre un peu de poésie dans cette vie si difficile pour le SEO, je vous invite à écouter ce dialogue de Gollum qui cherche le sens de tout cela. Faut-il oui ou non optimiser son référencement naturel et si oui, comment faire. Les aventures de Bilbot le Hobbit sont certainement à l’image de notre métier aujourd’hui. La tentation de la magie et la dure réalité qui nous ramène bien souvent à la raison avec les longs discours de John Mueller ou Mat Cutts.

Le référencement naturel c’est aussi beaucoup de plaisir

1 minutes 24 secondes pour faire le point avant de nous appeler pour optimiser votre site !

Optimisation du référencement naturel sans liens, quels indicateurs choisir ?<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Google annonce la fin des backlinks

On le sait, Google aime jouer avec nous, tester nos réactions, profiter d’effets d’annonces qui enflamment la communauté des référenceurs. Son dernier cheval de bataille serait un algorithme qui ne regarde plus les liens mais plus du tout. Il ne s’agit pas de prendre en compte uniquement les bons liens voire sanctionner les mauvais liens, il s’agit d’un nouveau monde sans liens. On en rêve presque !

Yandex a abandonné l’optimisation via les liens

Voilà peut-être le seul exemple probant d’un moteur de recherche qui a tenté de ne plus prendre en compte les liens (Annonce faire en 12/2013). Et il affirmait alors que la qualité était au rendez-vous. Ce qui veut dire que le classement des sites web entre eux se fait sur la base de la pertinence sémantique et sur l’expérience utilisateur.
Les réponses de Google

Adieu Page Rank, notoriété, autorité des liens

Google nous avait annoncé la fin du Page rank toolbar, un non-événement en soi évidemment. D’accord, Google n’a pas fait de mise à jour depuis plus d’un an de ce diagnostic SEO instantané. Mais l’intérêt du Page Rank repose dans sa position au cœur de l’algorithme de Google. La fin du Page Rank algorithmique ça serait un peu la fin de Google. Pour une nouvelle version qui ne semble pas totalement aboutie à écouter ces différents portes-paroles. De Matt Cutts à John Mueller, on sent que les réponses restent d’ordre générale, sans grande précision. Le meilleur exemple est la place prise par les filtres Panda et Penguin dits en mise à jour permanente et appliqués également en permanence. Dans cette longue litanie, le dernier retournement confirme l’aveu d’impuissance de Google :

Le déploiement de Panda et Penguin n’est même pas trimestriel !

La menace de ne plus prendre en compte les liens fonctionne surtout comme une épée de Damoclès. Cela pourrait arriver, préparez-vous…

Quel brevet pourrait remplacer le page Rank

Un pageRank de contenu a déjà été poussé par les équipes de Google

Avec un dépôt en deptembre 2014, Google explique classer la qualité d’une page web par un Combined Ranking qui crée un indicateur de pertinence sur la base des contenus et de la relation des Internautes avec ses contenus. Une page serait donc analysée en fonction de la qualité des textes, des images, des liens mais aussi de l’usage qu’en font les Internautes. On précise la volonté de Google d’être de plus en plus User centric. Principal reproche que l’on accorde d’ailleurs à son outil de statistique : Google analytics. Il n’y jamais de hasard !

 Une qualité définit par des indicateurs indépendants de la requête

Google avait déjà donné quelques pistes lors du dépôt de son brevet en décembre 2014 concernant l’indexation et l’analyse de la qualité des vidéos Youtube. Il montrait par ce brevet la volonté de classer les vidéos sur l’expérience utilisateur et non plus sur la base d’une pertinence entre la requête et la vidéo vue.

Indicateur de pertinence Youtube : UXVéracité du contenu ou le Knowledge Vault

On savait déjà que Google privilégiait déjà les résultats de certains sites de confiance. L’arrivée du Knowledge graph en avait été une confirmation. Sur une requête, Google propose un résumé des connaissances en mettant en avant des informations issues de sites fiables… Il ira même jusqu’à s’approprier certains contenus. Le paradoxe du moteur de recherche est donc devenu celui-ci :

Proposer des réponses aux Internautes sans qu’ils aient à consulter les sites proposant l’information !

Google fait du référencement naturel sans liens, sans requête et donc sans mots clefs !

News Scientist révélait en février 2015 que les équipes de Google travailleraient à un nouvel indicateur de pertinence basé sur des résultats vérifiés. Il ne s’agit plus du tout de simplement faire confiance aux sites ( Page rank ) ou faire confiance aux Internautes ( User centric ). Google va produire son propre référentiel qui lui permettra d’évaluer la qualité et donc la véracité des contenus. Google se transformerait en super Wikipédia pour un monde qui tourne en boucle, c’est la fin du moteur de recherche et le début d’un Index géant pour un Internet fini, une grosse table des matières en quelque sorte…
On connaît la dimension de Google à vouloir prendre en charge tous les aspects de la vie dans le futur : connexion Internet, vie extraterrestre, santé, robotique… Google nous annonce d’une certaine manière la fin d’Internet mais le début d’un assistant de vie !
Pour le référencement naturel, cela confirmerait la nécessité de faire valider les contenus de son site pour pourvoir être indexé par Google. On comprend mieux alors l’intérêt du Https…

Le netlinking est mort ?<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Search engine watch annonce : Is Link-buildind dead ?

Voilà encore une nouvelle tempête dans le microcosme des référenceurs. D’où sont partis ces si vifs échanges entre professionnels, d’un simple commentaire de John Mueller. Il n’y a décidément rien à lui reprocher, il est tout aussi capable que son prédécesseur Matt Cutts de mobiliser l’attention.
Comme à son habitude, John Mueller a simplement répondu à une question concernant les bonnes ou mauvaises stratégies d’optimisation de liens :

“only focusing on links is probably going to cause more problems for your website than it actually helps.”

Et de fait, ne s’intéresser qu’aux liens pourrait nous causer plus d’ennuis que cela pourrait nous rapporter.

Quand Google demande de ne pas tout miser sur les liens

Les réponses de la communauté américaine des référenceurs auraient tendance à enterrer le netlinking un peu vite. On constate une certaine habitude à vouloir trouver des solutions simples : Blanc ou Noir. Point de vue qui peut simplifier le travail du référenceur au quotidien mais ce qui fait l’intérêt du SEO, c’est bien notre impossibilité à définir des règles applicables à tous les cas de figure.

Recette pour une bonne campagne de liens

Search engine journal titrait 6 jours après le buzz du Hangouts :

The Age Old Question: What’s the Future of Link Building?

En effet, voilà un autre marronnier du référencement naturel. Et on dirait que c’est un peu une habitude, Google teste la communauté SEO avec des effets d’annonce et continue son travail d’amélioration de son algorithme en appliquant ou non ce qui a été annoncé.

Search engine journal, l'actualité du référencement naturel

On dira encore une fois, plus de peur que de mal car si Google nous demande de travailler plus à optimiser la qualité de nos contenus, pour une optimisation sémantique avant tout. Cette optimisation des contenus doit aussi servir à mieux renseigner les Internautes, vos lecteurs et à générer des liens naturels. Il ne s’agit pas de supprimer tous les liens mais d’obtenir des liens de qualité.

6 règles pour définir une stratégie de référencement naturel

Search engine journal nous donne au passage 6 recettes incontournables pour avoir des liens de qualité et travailler son optimisation de manière Google friendly pour l’avenir :

  1. Les liens seront toujours au cœur de l’algorithme de Google et constituent une part importante de l’évaluation de la qualité d’un site. Le Page Rank et l’algorithme ont été créés sur la base des liens.
  2. L’algorithme va devenir de plus en plus sensible aux formes nonnaturelles pour acquérir des liens. Penguin est toujours à la manoeuvre et les liens spammy vont générer de plus en plus de sanctions.
  3. L’algorithme de Google devrait prendre en compte d’autres indicateurs afin de se focaliser sur une approche nouvelle de l’évaluation d’un site : qualité du contenu, longueur des articles, https…
  4. L’algorithme de Google aurait une préférence pour la co-citation, la co-occurence et la notoriété d’une marque. En effet, rien n’est plus fiable que ce que disent déjà les Internautes d’une entreprise…
  5. Les méthodes de recherche ont beaucoup changé. Si Google a fait évoluer son moteur de recherche, les Internautes ont aussi beaucoup changé dans leur façon de rechercher du contenu : requêtes plus longues, prise en compte du langage naturel (questions) et un usage de plus en plus important du mobile.
  6. L’importance des médias sociaux est de plus en plus incontournable. En 2011 aux Etats-Unis, on constatait pour la première fois, que les Internautes passaient plus de temps sur les médias sociaux que sur les moteurs de recherche. 4 ans après, le constat s’est généralisé. L’usage des médias sociaux est un moyen d’accéder à Internet totalement intégré dans les pratiques, nul besoin de moteur quand la recommandation et le partage permettent de découvrir l’essentiel.

Des liens pour être visible sur InternetLe référencement naturel n’est plus ce qu’il était mais reste incontournable

Il nous faut oublier toutes les techniques d’automatisation ou du moins s’habituer à moins les utiliser pour garantir la qualité du positionnement d’un site dans les Serps.
Ce matin, la presse se réjouissait des progrès de Bing et Google pour éradiquer les contenus pour adultes de leur index… Voilà ce vers quoi tendent tous les moteurs de recherche et leurs utilisateurs : des contenus de qualité, de confiance avec une recherche de plus en plus rapide. A nous de savoir ce que recherchent nos lecteurs, nos clients afin de déterminer les contenus que l’on souhaite leur proposer et mettre en avant.
Nous avons échappé pour un temps aux Google glass, préparons nous tout de même aux assistants personnels qui vont définitivement mettre un terme à la recherche universelle.
 
 

Position du référencement naturel + Adwords = Mauvais CTR !<span class="rmp-archive-results-widget rmp-archive-results-widget--not-rated"><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i><i class=" rmp-icon rmp-icon--ratings rmp-icon--star "></i> <span>0 (0)</span></span>

Google contraint votre visibilité 2 fois dans les résultats de recherche !

Nous avons l’habitude d’un débat assez convenu sur le fait que Google privilégie oui ou non les positions naturelles en fonction de vos dépenses parallèles sur Adwords. Évidemment, Google se défend de telles pratiques et pour prouver sa bonne volonté sépare les équipes qui travaillent sur Adwords ou sur le moteur de recherche. Aucune confusion possible, ce ne sont pas les mêmes personnes et de plus elles ne travaillent jamais ensemble !
CTR seo sans pub adwords

Mythe SEO et mythe Adwords

Autre rumeur de référenceur ou hoax seo, loin des complotistes, nous avions l’habitude d’observer une certaine corrélation entre le taux de clics sur les résultats naturels et le fait d’apparaître dans les résultats sponsorisés.
CTR SEO en fonction du domaine d'activité
Là les webmarketeurs apportaient une réponse dans la logique du cross-canal. Si les Internautes vous voient en publicité Adwords et en référencement naturel, ils seraient rassurés et plus enclins à cliquer sur les résultats naturels proposés par Google. Les résultats naturels bénéficiant toujours d’une plus grande crédibilité aux yeux des Internautes. Par la médiation de Google ou non, les Internautes identifieraient plus de tromperies ou de résultats inopportuns au niveau des modèles publicitaires qu’au niveau de votre propre site.

Si les annonces récupéraient tous les clics en ne laissant rien aux résultats naturels ?

Voilà la question que s’est posée Advanced Web Ranking. En s’appuyant sur une analyse du CTR, taux de clics sur le nombre d’impressions, Advanced Web Ranking propose d’observer le comportement des Internautes avec ou sans publicité Adwords sur la page. Loin d’imaginer un lien de favoritisme entre référencement naturel et Adwords, leur étude montre plutôt un véritable pillage des clics au profit du modèle payant de Google.
CTR SEO et notoriété
Comme quoi, Google fait définitivement bien les choses. Il a en effet besoin des résultats naturels pour adosser son modèle publicitaire, lequel lui rapporte des revenus à la différence du SEO.

Que nous montre l’étude du CTR au niveau des résultats de recherche, avec ou sans publicité Adwords ?

Le constat est ici sans appel, les publicités feraient presque perdre la moitié des clics :

  • ⎇ Résultats de recherche sans publicité, le taux de clics est de 34,92%
  • ⎇ Résultats de recherche avec publicité Adwords, le taux de clics est de 19,2%
  • ⎇ Résultats de recherche avec 3 publicités Adwords (Premium), le taux de clics tombe encore plus bas, soit 14,59%

Il faut tout de même noter que si les publicités se trouvent colonne de droite, elles n’impactent plus du tout de la même manière le CTR. Et on obtient d’ailleurs dans ce cas un CTR à 19,32%.
La solution la plus favorable est sans surprise le cas de figure où les annonces se situent sous les résultats naturels, en bas de page.
CTR référencement naturel et pub bas de page
Cette étude confirme encore l’importance de l’ergonomie des pages de résultats de Google. Il est vrai que son ou ses équipes ont travaillé à optimiser cette page en déplaçant les publicités voire même en proposant des bannières, les menus et accès aux autres services de Google. Cette étude confirme donc l’importance de l’accès au contenu, avec l’impact fort des premiers résultats qu’ils soient publicitaires ou non.

Si une bonne stratégie de référencement naturel se mesurait en fonction des clics

On notera au passage l’intérêt des requêtes liées à la notoriété d’un produit ou d’une entreprise, l’intention dans la requête, la longue traîne et les catégories. Cet outil propose une mine d’informations pour repenser sa stratégie SEO.