Récap SEO 2011
Agence Référencement Naturel - Des changements importants sont survenus en 2011 dans les pages de résultats, avec notamment le filtre Panda de lutte contre les fermes de contenus et le contenu à qualité médiocre, la prévisualisation des sites, le filtrage par niveau de lecture et dans l'index avec la prise en compte de nouveaux formats de fichiers…etc.
Nous allons donc suivre les évolutions qui ont survenues tout au long de l'année 2011 en espérant déployer une étude exhaustive à ce niveau.
Changements au niveau de l’algorithme d’indexation Google
Google Panda (février 2011)
Le nouveau filtre Panda de Google de lutte contre les fermes de contenu qui a fait couler beaucoup d'encre cette année, semble pénaliser les sites spammeurs de façon globale même si quelques unes seulement de ces pages sont considérées comme proposant des fermes de contenus.
En effet, la mise à jour Panda de l'algorithme de Google a bouleversé le monde de référencement en Europe et en France lorsqu'elle y est déployée en dégradant un très grand nombre de sites.
Freshness Update (novembre 2011)
Dans sa démarche de se créer le moteur de recherche le plus efficace au monde, Google ajoute des critères de fraîcheur de contenu à la recherche de résultats du moteur. Ce qui signifie que le contenu qui apparaît dans les résultats des moteurs de recherche est toujours aussi frais que Google peut le faire. Cela ne veut pas dire que le contenu dans les résultats va être dans l'ordre chronologique, mais seulement que les résultats que vous trouverez seront vérifiées pour leur âge dans le cadre du processus d’indexation de Google pour déterminer la pertinence du contenu proposé par un site donné.
La mise à jour Freshness Update a ajouté plus de valeur aux blogs et aux flux RSS, ils peuvent désormais être une source de base de contenu frais pour Google.
Toutefois, la mise à jour Freshness Update signifie maintenant que les blogs et les flux RSS peuvent avoir plus qu’une force motrice quand il s'agit de référencement, car ils ont désormais une influence un peu plus sur ce qui apparaît dans les résultats de la recherche d'un site Web.
Le chiffrement des pages de résultats (octobre 2011)
Google
a décidé de sécuriser la transmission des données qu'il traite. Cela a
impacté directement les statistiques des sites visités par les
internautes en provenance du moteur de recherche, puisque la requête
utilisée par l'utilisateur du moteur pour trouver votre site ne sera
plus transmise et ne pourra donc pas être interprétée et analysée par
votre outil de mesure d'audience.
Nouvelles balises HTML Google
Les « rich snippets » et Schema.org
Dans le but de mieux appréhender les données présentes dans les pages web à indexer, les moteurs de recherche ont besoin que les données structurées soient formatées avec un standard connu. Un standard commun intitulé « Schema.org » a vu le jour après un accord entre les trois principaux moteurs de recherche Google, Yahoo et Bing.
Les données structurées seront surtout utiles pour les sites web qui ont des fiches produits (sites e-commerce, recettes de cuisine, films, célébrités, événements etc.), et qui affichent des notes avec des étoiles attirant la vue de l’internaute et l’incitant à exprimer son avis. Il leur est recommandé d’adopter ce standard afin d’être mieux référencé, et surtout pour soutenir leur visibilité sur les pages de résultats.
Les balises « author » et « source » (Juin 2011)
Google prends en compte les balises "rel=author" indiquant qui est l'auteur d'un contenu à l'aide d'attributs à rajouter dans le code HTML des liens : <a rel="author" href="/../authors/nom">Nom de l'auteur</a>
Pagination des listes :
Un nouvel ensemble de balises on été annoncé par Google en Septembre 2011 permettant de mieux faire indexer et analyser par son algorithme d’indexation les pages de listes découpées en plusieurs sections par un système de pagination rel="next" and rel="prev".
Balises multilingues (Décembre 2011) :
Cette nouvelle balise des sites multilingues "rel="alternate" hreflang" qui a été créé par Google en mois de Décembre 2011peut être utile dans le cas où les versions d’un site sont dans la même langue mais sont destinées à des zones géographiques différentes mais aussi dans le cas d’un site web traduisant un contenu pour différentes langues (anglais, français et allemand par exemple).
La personnalisation des SERP :
Voulant aider l’internaute à trouver les réponses les plus pertinentes à ses requêtes, Google a décidé de mélanger dans ses SERPs les résultats "normaux" avec ceux mis en valeur par les contacts de l'utilisateur des services Google.
Blogger, YouTube, mais aussi Twitter étaient alors les services cités qui devaient permettre à l'utilisateur consentant d'obtenir des résultats personnalisés et, donc, supposés plus pertinents par le géant de la recherche web dans le monde.
De plus le géant de Mountain View a commencé à prendre en compte l’historique de navigation des internautes connectés sur leurs compte Google lors de l’affichage des résultats de recherche.
Lutte contre l'excès de pub
Google, a lancé le développement en cours d’un nouvel algorithme qui permet de pénaliser les sites internet affichant trop de publicité qui cachent ou s’emmêlent avec le contenu de la page gênant ainsi la navigation des internautes.
Ce nouvel algorithme de lutte contre l'excès de pub permet selon Matt Cutts, porte parole « search quality » de Google, de détecter le contenu importants dans une page web, et la pourcentage affiché de ce contenu au dessus de la ligne de flottaison.
Nouveautés dans les Webmaster Tools de Google :
Un nouvel onglet « Pages les plus populaires » a fait son apparition dans la zone Requêtes de recherche dans Google Webmaster Tools. Ce nouvel outil donne des informations sur les pages les plus visitées d'un site : le nombre d'impressions, le taux de clics, la position moyenne de la page, etc. Il est également possible de faire apparaître des tendances sur une période donnée.
Ces outils permettent en effet d'identifier l'origine d'un trafic et lister les requêtes qui ont amené l'internaute sur la page. Des données qui sont particulièrement utiles pour comprendre le trafic. Des informations détaillées permettent aussi de mieux évaluer la performance d'une requête sur l'ensemble du site.
Google Webmasters Tools, propose aussi des filtres permettant d'affiner l'analyse des requêtes en choisissant, par exemple, l’origine géographique.
Nouveaux critères de pertinence
Temps de chargement des pages :
Le temps de chargement des pages web est un nouveau critère de pertinence pour le moteur de recherche de Google et Webmaster Tools de Google affiche désormais, dans la catégorie "Labos", un outil indiquant le temps moyen de réaction de votre site vu par Google.
Prise en compte des réseaux sociaux:
Google a commencé à prendre en compte les réseaux sociaux, notamment Twitter dans le référencement naturel des sites internet. Cette prise en compte relative ouvre une nouvelle ère pour le référencement naturel où les réseaux sociaux auront un impact sur le positionnement d’un site même si les liens qui y sont postés sont en nofollow.