Metadescripciones duplicadas. Webmaster, Google.

Creado: Martes, 22 Enero 2013 Escrito por karmany Visto: 5066
Tamaño de letra:

Herramientas para webmaster de Google. Metadescripciones duplicadas.

Hace ya un tiempo, teníamos en esta web un foro que ciertamente empezaba a tener "algo" de movimiento, sin embargo, y debido a razones que ya hemos comentado varias veces, tuvimos que cerrarlo y esto ocasionó que en las herramientas para webmaster de Google ? Optimización ? Mejoras HTML, aparecieran de repente unas 140 Metadescripciones duplicadas y otras tantas Etiquetas de título duplicadas. ¿Cómo lo solucionamos?

 

Mejoras HTML

Como dice Google, cuando este ha rastreado e indexado tu sitio, te muestra una serie de incidencias que deberías solucionar para mejorar el rendimiento y la experiencia del usuario.

Cuando se eliminó completamente el foro, hubo un problema y es que normalmente algunos CMS te redireccionan simplemente observando el id del artículo, categoría o lo que sea. Por ejemplo, la siguiente URL:

ejemplo.con/index.php/1-ropa/2-zapatos

es posible que sea considerada la misma que:

ejemplo.con/index.php/1-vehiculo/2-carro

Y ¡son 2 URL distintas! Puede ser entendible desde el punto de vista del CMS, ya que si existe una categoría "ropa" con id = 1, no debería existir una categoría "vehiculo" con ese mismo id. Con el foro pasó eso, que Google tenía indexadas todas las páginas del foro y al eliminarlo, estas siguieron indexadas pero no te llevaban al foro (que ya no existía) sino directamente a artículos del blog. Por ejemplo, observa la siguiente captura que hice real:

Mejoras HTML

Como puedes ver, ahora la URL del foro redirige hacia un artículo sobre conexiones de ordenadores. Este es el problema y se repite más de una centena de veces.

Bloquear las URL

Para desindexar todas las URL del foro pensé en utilizar directamente el archivo robots.txt. Esto se puede utilizar si no tienes enlaces entrantes de otros sitios web, ya que si esto ocurre, Google no los desindexará (normalmente) aunque lo evites en robots.txt, deberás por ejemplo generar un error 404 o  redireccionarlos -entre otros-. Una URL canónica tampoco te lo asegura. Esto me hace recordar, por ejemplo, el archivo robots.txt de la SGAE que ya sabes qué URL ha intentado bloquear...

En mi caso, había pocos enlaces entrantes, así que decidí modificar el archivo robots.txt.

Las herramientas de Google te permiten hacer modificaciones (no reales) sobre tu archivo robots.txt. Esto es muy interesante porque modificándolo puedes comprobar si funciona según lo esperado. En este caso, todos los enlaces al foro siguen esta forma:

/index.php/foro

Así que voy a las herramientas webmaster de Google ? Salud ? URL bloqueadas, y en el apartado: "Contenido de tu_sitio/robots.txt: editar para probar cambios" añado al final esto:

Disallow: /index.php/foro/

Ahora voy a probar si el enlace del foro que aparece en la imagen anterior, será bloqueado. Así que en el apartado: "URL Especifica las URL y los user-agents que quieres probar", introduzco lo siguiente:

Bloquear URL

De este modo compruebo -viendo los Resultados de prueba- que todas las URL del antiguo foro serán bloqueadas. Y efectivamente, así fue y en 2 semanas pasó de 140 Metadescripciones duplicadas a 35.

Última actualización: Martes, 22 Enero 2013