Hace unos días se publicó un artículo, en el Blog de Google para Webmasters, donde se dan unos consejos para mejorar la indexación en los motores de búsqueda de nuestros sitios web.
Google (en este caso) rastrea la web con su Googlebot para indexar sitios web y contenidos en su base de datos, pero su capacidad es limitada, y por tanto tenemos que ayudarle en su trabajo para optimizar la cantidad y calidad del contenido indexado de nuestros sitios. Ésto repercutirá en mejores resultados en el motor de búsqueda, y por tanto más y mejor tráfico.
Entre las recomendaciones que da Google tenemos:
– Eliminar detalles específicos del usuario en las URL: Los identificadores y claves de sesión no contienen información útil para el buscador, y además son redundantes, ya que provocan que múltiples direcciones web apunten a un mismo contenido.
– Evitar espacios infinitos: Poniendo el ejemplo de un calendario que apunta a un número infinito de fechas, estamos abriendo la puerta a un número ilimitado de enlaces de contenido cero, lo que se traduce en una indexación infinita sin resultados positivos.
– Desactivar acciones que Googlebot no puede realizar: Gracias a robots.txt , podemos evitar la indexación de servicios que no ofrecen contenido, como un simple formulario de contacto, que ni es rastreable ni ofrece contenido al buscador.
– Una URL, un conjunto de contenidos: En Google recomiendan el uso de «enlaces canónicos para indicar la URL preferida para un fragmento de contenido en concreto».
Fuente: «Optimización del rastreo y la indexación«.