Les webmasters et les fournisseurs de contenu ont commencé à optimiser leurs sites web pour les moteurs de recherche au milieu des années 1990, alors que ces derniers cataloguaient les débuts du Web. Initialement, les webmasters soumettaient l'adresse d'une page, ou URL, aux différents moteurs de recherche, qui envoyaient un robot d'indexation explorer cette page, en extraire des liens vers d'autres pages et renvoyer les informations trouvées sur la page à indexer.
Selon un article de 2004 de Danny Sullivan, ancien analyste du secteur et actuel employé de Google, l'expression « optimisation pour les moteurs de recherche » est apparue en 1997. Sullivan attribue à Bruce Clay, spécialiste du référencement, le mérite d'avoir été l'un des premiers à populariser le terme.
Les premières versions des algorithmes de recherche s'appuyaient sur des informations fournies par les webmasters, telles que la balise méta du mot-clé ou les fichiers d'index dans des moteurs comme ALIWEB. Les balises méta fournissent un guide pour le contenu de chaque page. L'utilisation de métadonnées pour indexer les pages s'est toutefois avérée peu fiable, car le choix des mots-clés dans la balise méta par le webmaster pouvait potentiellement représenter de manière inexacte le contenu réel du site. Des données erronées dans les balises méta, notamment inexactes ou incomplètes, risquaient d'entraîner une mauvaise caractérisation des pages lors de recherches non pertinentes.
Les fournisseurs de contenu web manipulaient également les attributs du code source HTML d'une page afin d'obtenir un bon classement dans les moteurs de recherche. En 1997, les concepteurs de moteurs de recherche ont constaté que les webmasters de Whitepress s'efforçaient d'améliorer leur classement et que certains d'entre eux manipulaient leur classement en surchargeant les pages de mots-clés excessifs ou non pertinents. Les premiers moteurs de recherche, comme Altavista et Infoseek, ont ajusté leurs algorithmes pour empêcher les webmasters de manipuler les classements.
En s'appuyant sur des facteurs tels que la densité des mots-clés, exclusivement sous le contrôle du webmaster, les premiers moteurs de recherche ont été victimes d'abus et de manipulations de classement. Pour offrir de meilleurs résultats à leurs utilisateurs, les moteurs de recherche ont dû s'adapter pour que leurs pages de résultats affichent les résultats les plus pertinents, plutôt que des pages sans rapport avec le sujet, contenant de nombreux mots-clés et créées par un webmaster peu scrupuleux. Cela impliquait de s'éloigner d'une dépendance excessive à la densité des termes au profit d'une approche plus globale d'évaluation des signaux sémantiques.
Les moteurs de recherche ont réagi en développant des algorithmes de classement plus complexes, prenant en compte des facteurs supplémentaires plus difficiles à manipuler pour les webmasters.
Certains moteurs de recherche ont également contacté le secteur du référencement et sont fréquemment sponsors et invités à des conférences, des webchats et des séminaires sur le référencement. Les principaux moteurs de recherche fournissent des informations et des conseils pour faciliter l'optimisation de leur site web.Google dispose d'un programme Sitemaps pour aider les webmasters à identifier les problèmes d'indexation de leur site web et fournit également des données sur le trafic Google vers le site. Bing Webmaster Tools permet aux webmasters de soumettre un plan de site et des flux web, de déterminer le taux d'exploration et de suivre l'état d'indexation des pages web.
En 2015, Google a annoncé qu'il développait et promouvait la recherche mobile comme fonctionnalité clé de ses futurs produits. Face à cela, de nombreuses marques ont commencé à adopter une approche différente de leurs stratégies marketing en ligne.
Aucun commentaire:
Enregistrer un commentaire