En décembre 2012, nous avons publié le premier article de notre série sur le référencement pour les concepteurs de sites Web. Les principes de base que nous avons abordés constituent toujours une excellente base pour l'optimisation d'un site Web, mais en raison de certains changements apportés à l'algorithme de Google, j'ai décidé de vous donner des conseils supplémentaires sur l'application de ces techniques..
Google peaufine régulièrement son algorithme de recherche. En 2013, pas moins de quinze changements notables ont été apportés, en plus de plusieurs mises à jour mineures..
Vous avez probablement déjà entendu parler de termes tels que "Google Panda" et "Google Penguin". Ce sont les noms donnés aux principaux changements d'algorithme de recherche. Panda, d’abord publié en 2011, il s’agit plutôt d’un filtre de qualité du contenu qui abaisse le rang des sites de qualité médiocre. Un an plus tard, nous avons vu le manchot mise à jour, qui ciblait des liens suspects, tels que des liens payants ou l'utilisation de réseaux de liens. Des milliers de domaines, y compris des sites populaires tels que Rap Genius et Interflora, ont été touchés par ces modifications. Selon Google, Panda a affecté 12% de tous les résultats de recherche, tandis que Penguin a affecté 3,1% supplémentaires..
Ces pourcentages sont nains par le Colibri mettre à jour l'année dernière. Selon Matt Cutts, il concerne plus de 90% des recherches dans le monde, ce qui en fait l'un des plus gros changements apportés à l'algorithme de Google ces dernières années..
Le but de cette mise à jour est d’améliorer la capacités de recherche sémantique du moteur de recherche; une meilleure compréhension de l'intention et du contexte devrait produire des résultats plus pertinents.
La recherche conversationnelle est peut-être la meilleure illustration des possibilités de cette mise à jour. Grâce à une meilleure compréhension de la signification des mots, Google peut désormais répondre aux requêtes de recherche difficiles à résoudre dans le passé..
Le référencement est en constante évolution. Plusieurs approches très efficaces dans le passé sont devenues obsolètes (c’est pourquoi l’optimisation des moteurs de recherche est un domaine aussi intéressant!)
Les mises à jour des années précédentes ont une influence sur notre façon de faire du référencement en 2014. C'est pourquoi nous devons prendre en compte les changements suivants:
En 2013, Google a décidé d'activer la recherche sécurisée pour tous les utilisateurs. En raison de ce cryptage SSL, les données de mots clés ne sont plus partagées.
Vous pouvez voir cela par vous-même. Si vous utilisez Google Analytics, regardez Acquisition> Mots clés> Biologique. Les chances sont que la première place est prise par (non fourni), indiquant que le visiteur a utilisé une recherche sécurisée.
Cela signifie que le trafic organique de Google ne peut plus être suivi au niveau des mots clés. Malheureusement, nous perdons beaucoup d'informations précieuses sur nos visiteurs à cause de ce changement «mineur». En 2014, il sera plus difficile d'optimiser votre site en fonction de mots clés pertinents..
En disant cela, Google veut que nous arrêtions de nous concentrer sur les mots-clés et que nous réfléchissions à la production de contenu de qualité. Ce qui nous amène au prochain changement.
La perte de données de mots-clés et l'introduction de la mise à jour de Hummingbird nous obligent à passer de mots-clés à des sujets..
Comme je l'ai déjà dit, Hummingbird met davantage l'accent sur le contexte et les intentions de l'utilisateur. Google peut maintenant afficher les pages Web qui répondent aux requêtes même si la page n'est pas optimisée pour cette requête.
Cela a un impact sur la manière dont nous allons faire du référencement à l'avenir. Au lieu d'optimiser une page pour un mot clé donné, nous devons sortir des sentiers battus et créer du contenu autour de sujets, en définissant des groupes de mots clés cohérents pouvant tous être desservis par le même contenu..
En août 2013, Google a introduit un nouveau type de résultat de recherche: les articles détaillés. Ces résultats apparaissent dans un bloc séparé à droite des SERP et fournissent un contenu de haute qualité pour vous aider à mieux connaître un sujet donné..
Plusieurs mesures peuvent être prises pour améliorer les chances de figurer dans la liste d’articles approfondie. Les données structurées jouent un rôle important (plus à ce sujet plus tard).
Cette mise à jour montre encore une fois l'importance d'un contenu de qualité. Un contenu fin avec peu ou pas de valeur ajoutée n'a aucune chance de figurer dans le bloc d'articles en profondeur. Combinez cela avec l'objectif de la mise à jour de Hummingbird (rubriques au lieu de mots clés) et il est clair que Google souhaite que nous créions un contenu attrayant en mettant l'accent sur l'intention de l'utilisateur..
Pour cette raison, à l'avenir, nous verrons beaucoup plus de «gros contenu», des pages qui traitent d'un certain sujet en détail.
Un des meilleurs exemples de cette technique est 'Brandopolis', un article de Distilled sur la stratégie de contenu (à lire si vous avez un peu de temps libre)..
Quicksprout utilise une approche similaire pour son guide de rédaction.
Ces articles volumineux présentent deux grands avantages:
Les liens sont toujours le Saint Graal de la SEO. Les moteurs de recherche voient chaque lien vers un site Web comme un vote pour ce site. Plus une page reçoit de liens, plus il est facile de classer avec précision.
La quantité seule n'a pas d'importance, la qualité joue également un rôle important. Lien spam (souvent via un logiciel automatisé) peut rapidement créer des centaines, voire des milliers de liens en supprimant des URL avec un texte d'ancrage optimisé sur les forums et les sections de commentaires. Ces liens sont faciles à créer, mais offrent peu ou pas de valeur supplémentaire au visiteur..
De nombreux sites Web présentant des profils de liens suspects ont déjà reçu un avertissement de lien non naturel de Google. Cette pénalité limite leur visibilité dans les SERPs et les oblige à nettoyer leur profil de lien.
Une bonne structure aide les moteurs de recherche à comprendre le contenu d'une page. Malheureusement, le balisage HTML est trop limité pour définir le sens réel de divers éléments, bien que cela se soit quelque peu amélioré avec l’introduction de HTML5. Il y a beaucoup de nouveaux tags (par exemple et
) que nous pouvons utiliser pour organiser une page et aider les moteurs de recherche à comprendre le contenu. Pour le moment, la manière dont Google gère ces balises n’est pas clairement définie, mais c’est certainement une bonne idée de commencer à implémenter ces balises dans des projets et de tenir compte de la sémantique de votre marquage..
Les données structurées peuvent également être une solution. Il aide les moteurs de recherche à comprendre le contenu d’une page et peut également améliorer la visibilité dans les SERP via des extraits enrichis (et la nouvelle boîte d’article détaillée). Des exemples d'extraits enrichis sont les miniatures vidéo, les prix ou le classement par étoiles. Ces éléments peuvent donner un bon coup de pouce au CTR de votre page.
Un autre type d'extrait riche est le balisage d'auteur. Les informations sur la paternité vous permettent de lier un article au profil Google+ de l'auteur. Grâce à ce lien, une petite image de profil est affichée à côté du résultat de la recherche..
Google attribue à chaque auteur un AuthorRank. Auteurs populaires pourrait leur contenu associé est mieux classé que le contenu non signé ou le contenu d'autres agents moins autoritaires. Encore une fois, la qualité du contenu que vous produisez est primordiale.
Je n'ai probablement pas à vous dire que, sous l'influence de l'augmentation des ventes de smartphones et de tablettes, de plus en plus de visiteurs utilisent un appareil mobile pour naviguer sur le Web. C'est pourquoi un site optimisé pour la téléphonie mobile est important.
Google recommande un design réactif pour trois raisons:
Le deuxième point concerne le temps de chargement. Il y a quelques années, Google a incorporé la vitesse du site dans son algorithme. Cela signifie qu'une page à chargement lent peut nuire à votre classement. Donc, n'oubliez pas d'optimiser votre site pour la vitesse de la page (YSlow de Yahoo pourrait être utile).
Bien que les médias sociaux puissent attirer des tonnes de visiteurs, ils n’ont toujours pas une grande influence sur votre classement (il existe une corrélation entre les médias sociaux et les classements, mais pas de lien de causalité). Cela pourrait changer dans quelques années, c'est donc une bonne idée de commencer à établir une présence sociale. N'oubliez pas d'ajouter un balisage Open Graph à vos pages pour optimiser vos extraits sociaux..
Nous n'affecterons aucun changement radical dans la manière dont nous allons faire du référencement en 2014. Nous devons encore fournir un contenu pertinent et une bonne expérience utilisateur à nos visiteurs. Néanmoins, certains conseils supplémentaires pourraient vous aider dans vos efforts de référencement: