|

samedi 10 mars 2012

Search Engine Optimization (SEO) pour Vues

Parce que le duplicate content est considéré comme nocif pour l'optimisation de moteur de recherche (Drupal SEO Groupe), Si vous utilisez Vues, ​​vous devriez prendre des mesures pour éviter les doubles emplois. Par exemple, vous devez éditer votre fichier robots.txt (Google Webmasters / Site propriétaires Aide -> Les pages dynamiques, Google Webmasters / Site propriétaires Aide -> Contenu dupliqué). Si vous avez des filtres exposés dans Vues, ​​alors l'URL est plein de variables. Cela conduit à reproduire le contenu et doit donc être contrôlé via robots.txt (Google Webmasters / Site propriétaires Aide - structure de l'URL>). En bref si vous utilisez Vues dont vous avez besoin d'utiliser robots.txt! L'information qui suit vous aidera à optimiser robots.txt de Google.

Disons que vous avez une vue qui expose le titre à l'utilisateur, afin qu'ils puissent affiner la recherche ou de la vue. Cela entraînera deux versions dupliquées de ce point de vue. Ce n'est pas bon référencement.

Disons que ce point de vue utilise également un pager, si vous avez besoin pour permettre à la page Variable d'URL et de rejeter toutes les variables autre URL. Ceci peut être accompli en ajoutant ceci à robots.txt à la racine de votre serveur web:
 # Interdire toutes les variables d'URL à l'exception de la page
Disallow: / *?
Autoriser:? / * Page =
Disallow: / * page = * & *
Disallow: / * page = 0 *

Aucun commentaire:

Enregistrer un commentaire