Categorie : seo

« Mobile friendly » le nouveau label Google à avoir pour votre site

Google vient d’annoncer qu’ils allaient ajouter une mention précisant si votre site est adapté aux consultations sur mobile et tablette. Cette mention « mobile friendly » apparaitra donc sous le titre de votre page lors des recherches sur Google depuis un appareil mobile.

Afin de permettre aux éditeurs de vérifier si leur site est compatible avec ce nouveau label, Google propose un outil de validation qui se trouve ici. Cet outil va vous donner des informations sur la version mobile de votre site et vous permettra aussi de voir comment Google « voit » le site. L’utilisation de l’outil de validation est aussi utile pour valider si Google a bien accès aux fichiers CSS et JS de votre site, point important depuis quelques mois.

Google ne l’a pas annoncé comme cela mais logiquement on peut imaginer que ce label deviennent un critère de classement dans les résultats mobile du moteur de recherche, alors vous savez maintenant quoi faire!


Savoir si son site a été touché par Panda ou Pingouin

Petit rappel pour ceux qui n’ont pas compris le titre de cet article. Google améliore constamment son algorithme afin de proposer des résultats pertinents pour les utilisateurs. Depuis plusieurs mois Google a constaté que l’algorithme original n’était plus si performant et que les résultats de recherche n’étaient plus si pertinents (la faute à l’optimisation de certains sites?).

Bref, afin de corriger le tir et de conserver sa position de leader dans le domaine des moteurs de recherche, Google a fait des mises à jours de son algorithme. La plus connue fut nommée « Panda », elle avait pour objectif de réduire l’exposition des sites avec du contenu non pertinent et de mauvaise qualité, vint ensuite Pingouin qui cette fois-ci devait éradiquer les sites qui auraient abusés sur le linking de leur site. Après ces noms d’animaux on a vu apparaitre des mises à jour sur le format des pages avec « Page Layout », sur le nombre de résultats par page, ect. Google cherche donc à trouver la bonne formule pour gagner en pertinence et pourquoi pas augmenter aussi ses revenus il ne faut surtout pas oublier cette option aussi.

Parmi mes connaissances éditant un ou plusieurs sites internet, je ne connais personne qui n’ait pas été touché plus ou moins fortement par ces nombreuses mises à jour. Parfois des sites disparaissent purement et simplement de Google ou alors sont relayés à la 120 pages ce qui vous assure de ne plus avoir de visiteurs en provenance de Google. Le plus difficle dans tout cela est d’identifier le problème, pourquoi Google a sanctionner votre site, qu’est ce qui ne lui plait pas…

Malheureusement il n’y a pas de solution miracle, il faut chercher, tester pour espérer corriger une hypothétique erreur mais je peux vous assurer que jamais vous ne retrouverez vos places et votre trafic d’antant, çà c’est une certitude.

Néanmoins voici un outil qui a le mérite de vous placer les mises à jour sur la courbe de votre trafic. L’outil nommé Panguin (contraction de nos deux animaux préférés) vous demandera une autorisation d’accès à vos données google analytics (pré-requis à l’utilisation de Panguin bien entendu) et il vous affichera un beau graphique avec toutes les informations liées aux mises à jour de Google. Il ne vous reste plus qu’à interpréter… Pour ma part j’ai quelques exemples de sites/blogs ayant été touché voici donc quelques exemples de la vraie vie :

Un site touché par Pingouin en Juin 2012 :

Un site touché par Panda en Mars 2012 :

Et cerise sur le gâteau depuis samedi 16 novembre Google nous prépare quelque chose de sympathique avec une mise à jour qui fait et va faire très mal puisque les chutes de trafic sont de l’ordre de 30 à 40%. Google n’a pour l’instant pas communiqué sur cette mise à jour mais les faits sont là. Ci joint l’analyse de la volatilité de Google par serps.com :

Mouvements confirmés par serpmetrics :

Et les autres acteurs comme mozcast.com.

Et voici l’impact sur le trafic d’un site (trafic divisé par deux depuis le 16 novembre) :

La conclusion de tout cela est qu’il est aujourd’hui très imprudent de construire des business Google dépendant car les règles changent toutes les semaines!


Google propose maintenant un outil pour désavouer les backlinks

Avec les mises à jour de Google et notamment celles relatives aux backlinks de mauvaise qualité, de nombreux webmasters se sont retrouvés avec une belle pénalité sans pouvoir parfois y faire grand chose. C’est notamment le cas de ceux qui avaient proposés des thèmes wordpress avec un lien dans le pied de page, dans ce cas nettoyer la base de backlinks était une vraie mission impossible.

L’outil très attendu par les webmasters devait permettre de dénoncer des liens non désirés et pénalisant pour le ranking d’un site. Google vient enfin de proposer un outil pour faire cela. Ce dernier s’appelle « Disavow Links » et se trouve dans Google WebmasterTools ici. Selon Google l’outil est à utiliser avec précaution et uniquement si la demande de retrait du lien n’a pas porté ses fruits.

Une fois le site choisi, il faut envoyer un fichier txt avec des informations comme celle ci-dessous :

# Contacted owner of spamdomain1.com on 7/1/2012 to

# ask for link removal but got no response
domain:spamdomain1.com
# Owner of spamdomain2.com removed most links, but missed these
http://www.spamdomain2.com/contentA.html
http://www.spamdomain2.com/contentB.html
http://www.spamdomain2.com/contentC.html

Google précise que cette demande de retrait prendra quelques semaines. Voici la vidéo de présentation de l’outil par Matt Cutts.


Google propose plus d’information sur l’indexation d’un site

C’est intéressant car Google vient de proposer une nouvelle fonctionnalité à destination des webmasters via son outil webmastertools. Cet outil va permettre pour chaque éditeur de site de connaitre son niveau d’indexation dans Google. Un graphique avec des options avancées permet même de savoir le nombre de pages ignorées ou bloquées par un fichier robots.txt.

Notez que pour ceux qui utilisent des sitemaps qui documentent l’intégralité de leur site cette nouvelle information ne vous apportera pas grand chose de plus puisque Google donnait déjà l’information mais via l’interface dédiée aux sitemaps (encore fallait il avoir des sitemaps à jour) :

Donc pour afficher l’évolution de votre indexation dans Google il faut se connecter sur Webmaster Tools, puis aller dans Health puis Index Status. L’outil est simple mais fait ce que l’on attendait : savoir si son site était bien indexé dans Google! Ce que j’aimerai bien maintenant c’est connaitre les pages qui n’ont pas été sélectionnées afin de comprendre…


Voici comment Google a tué la longue traine

Vous connaissez certainement la long tail ou longue traine en français. Le principe est que chaque mot peut un jour être une recherche dans un moteur de recherche, Google a longtemps été reconnu comme étant un acteur générant du trafic sur la long tail mais depuis quelques temps avec les mises à jour des outils de Google on peut dire que la longue traine a été reléguée au fond d’un tiroir…

Voici une infographie de SEOBOOK qui est très juste et présente parfaitement comment Google a tué peu à peu la longue traine :


Générer des urls permettant le suivi des campagnes dans Google Analytics

Suivre son trafic dans Google Analytics est une première étape à l’analyse de l’audience de votre site. L’étape d’après est celle de l’affinage! En effet, maintenant que vous suivez les métriques les plus importants comme le nombre de visiteurs, le nombre de pages vues, le bounce rate (taux de rebond), le temps de chargement, les visites en provenance des moteurs de recherche… Il va falloir aller un peu plus loin.

Si vous faites des campagnes d’emailing ou si vous avez un flux RSS qui passe par feedburner vous avez certainement vu passer des urls bizarre avec des choses comme cela à la fin : ?utm_source=2803&utm_medium=qr&utm_campaign=mobile. Sachez que ces informations sont très utiles pour suivre les campagnes que vous lancez autour de votre site.

Google propose même un outil pour générer des liens qui permettront un suivi efficace dans l’interface Google Analytics. Il faut :

1- Renseigner l’url
2- Nommer la source de la campagne (2803.fr, Google, Twitter…) – utm_source
3- Définir le support de la campagne (bannière, qr code…) – utm_medium

4- Les termes de campagne si vous faite une campagne en mode payant – utm_term
5- Le contenu de la campagne pour différencier plusieurs campagnes éventuellement – utm_content
6- Et enfin le nom de la campagne – utm_campaign

Une fois ceci renseigné (partiellement d’ailleurs, les points en gras sont les plus importants), vous allez avoir un url de cette nature :

http://www.vingthuitzerotrois.fr/?utm_source=2803&utm_medium=qr&utm_campaign=mobile

Qui sera facile de suivre dans google analytics dans « TRAFFIC SOURCES/Campaigns ».

Voici comment je suis l’intégration des QR Codes sur ce blog. Reste à voir maintenant s’ils sont véritablement efficaces!


Impact du délais de chargement d’une page

On le sait tous le temps de chargement d’une page internet est de plus en plus important, pour l’utilisateur mais aussi pour Google qui a placé ce critère comme étant l’un des critères de classement d’une page. Donc plus votre site sera lent moins il aura de chance d’attirer les visiteurs et donc d’être bien classé dans l’index de Google.

Selon Jakob Nielsen il y a trois phases en fonction du temps de réponse d’un site internet :

-0,1 seconde, c’est le temps de l’instantané, l’utilisateur ne ressent rien il navigue sur le site naturellement sans forcément prendre conscience qu’il y a du téléchargement
-1 seconde, l’utilisateur sent le délais mais sait que la page est entrain de s’afficher
-10 secondes, de 1 à 10 secondes c’est la limite acceptable pour l’attente au delà l’utilisateur va partir du site

Google dans son outil webmastertools met d’ailleurs la limite entre un site rapide et un lent à 1,5 secondes comme on peut le voir sur le screen ci-dessous :

Alors pour identifier ce qui peut coincer ou bien être optimiser vous pouvez utiliser les outils suivants :

Pingdom :

Ou encore loadimpact :

Quelques actions qui vont améliorer le temps de chargement :

Taille des images

Souvent la taille des images est problématique, les images sont souvent lourdes et peuvent être optimisées (voir ces outils d’optimisation d’images).

Time to First Byte

Le Time to First Byte (à tester ici) est lui aussi parfois en cause, soit cela vient de votre hébergement qui n’est pas au top soit votre base mysql est trop lourde si vous êtes sous wordpress un bon moyen pour alléger le tout est d’effacer les « revisions » des articles, un plugin « better delete revision » fait très bien ce travail de nettoyage et l’ajout de cette ligne dans le fichier wp-config.php devrait interdire l’ajout des révisions :

define('WP_POST_REVISIONS', false);

Pour avoir fait l’opération le gain de la table wp_post est de 70% (55,9Mb à 17,4Mb)

Avant :

Après :

Sur l’un des blogs le TTFB est passé de 1000ms à 800ms après il faut faire vos propres tests mais réduire la taille de la base de données ne vous fera pas de mal.

Passer les images sur un sous domaine

Un navigateur web peut faire des téléchargements en parallèle alors si vous mettez vos fichiers statiques sur un sous domaine comme images.2803.fr vous allez être forcément plus rapide qu’avec un dossier comme www.2803.fr/images. Une première étape est de migrer les images du thèmes sur le sous-domaine et ensuite vous faite la même chose avec les images des articles donc du répertoire wp-content de wordpress, cela fera l’objet d’un prochain article.

Voilà comment faire pour optimiser « rapidement » le temps de chargement de vos pages, gagner quelques précieuses secondes et de faire en sorte que vous ne soyez pas pénalisé par Google et vos visiteurs aussi!


Trois outils pour vous aider à faire du contenu unique sur Internet

Tout le monde le sait pour émerger dans les résultats des moteurs de recherche il faut de la pertinence mais aussi de l’unicité. Produire du contenu unique est essentiel et parfois il faut s’aider de quelques outils pour être encore plus différent dans la rédaction de votre article. Voici trois petits outils à mettre en favori et à utiliser selon le besoin.

Le premier est un dictionnaire de synonymes proposé par le laboratoire CRISCO de l’Université de Caen. Vous mettez un mot l’outil vous proposera des synonymes classés par pertinence.

Le second outil est un outil pour calculer le taux de similarité (appelé aussi duplicate content) entre deux textes (votre source par exemple et votre article). Très simple aussi, il est basé sur les algorithmes Shingles pour définir un taux de similarité entre les deux textes (méthode utilisée par les moteurs). Un bon moyen de vérifier le caractère unique de votre article versus un autre site (source ou repreneur de votre l’information).

Le troisième outil est le plus simple, c’est un calculateur de nombre de mots. Presque rien à voir avec le caractère unique d’un article mais c’est pratique parfois de savoir de combien de mots est composé un article sans avoir à ouvrir word ou wordpress! Par ailleurs on sait que Google intègre le nombre de mots dans ses algorithmes de classement…

Avec ces trois outils vous voilà armé pour écrire du beau contenu unique et original pour vos lecteurs et les moteurs de recherche!