Webmaster Tools desautorizar enlaces

Disavow Links / Enlaces desautorizados

Webmaster tools

Ayer, martes 16 de octubre, Google ha añadido una nueva funcionalidad a sus Webmaster Tools que permite desautorizar ciertas URLs sin pensamos que están perjudicando nuestro posicionamiento.

Si recibes el «famoso» aviso de las Webmaster Tools sobre «enlaces no naturales» apuntando a tu sitio web esta nueva herramienta puede ayudarte a evitar que esos enlaces tengan relevancia sobre tu sitio, de todas formas Google, por medio de Mat Cutts, aconseja antes de usar esta nueva herramienta contactar con el o los sitios web que queremos que no tengan enlaces hacia nosotros para intentar que los eliminen.

Si en algún momento te ha llegado el aviso en las Webmaster Tools de que Google ha detectado «enlaces no naturales» hacia tu sitio web los pasos que debes seguir son,

  1. Contactar con el administrador del sitio web y pedirle que elimine los enlaces hacia tu sitio web
  2. Si el primer paso no ha tenido éxito, entonces, utiliza la nueva herramienta de las Webmaster Tools

Los pasos para enviar sitios web a la nueva herramienta de Google son,

  1. Accede a http://www.google.com/webmasters/tools/disavow-links-main
  2. Selecciona tu sitio web
  3. Presiona el botón de «Desautorización de vínculos»
  4. Selecciona el fichero donde tienes la lista de URLs que quieres enviar a Google

Para el punto 4 el fichero debe ser en texto plano y con las URLs separadas por saltos de línea, el ejemplo que muestra Google en su blog oficial es este,

# Contacted owner of spamdomain1.com on 7/1/2012 to

# ask for link removal but got no response
domain:spamdomain1.com
# Owner of spamdomain2.com removed most links, but missed these
http://www.spamdomain2.com/contentA.html
http://www.spamdomain2.com/contentB.html
http://www.spamdomain2.com/contentC.html

Como vemos en el ejemplo las líneas que comienza con una almohadilla, #, se consideran como comentarios y son ignoradas por Google, la línea que comienza con «domain:» le indica a Google que queremos desautorizar todos los enlaces que provengan de ese dominio, en el ejemplo, spamdomain1.com. También puedes solicitar la desautorización para URLs determinadas, simplemente añadir una URL por línea, como se ve en el ejemplo.

En este momento solo se permite un fichero por sitio y será compartido entre todos los sitios que estén en las Webmaster Tools, si necesitas modificar el fichero subido debes descargarlo, modificarlo y volver a subirlo, recuerda que el límite del fichero es de 2Mb.

Puedes leer el artículo original en inglés en http://googlewebmastercentral.blogspot.com.es/2012/10/a-new-tool-to-disavow-links.html

 

 

 

Novedades en las Webmaster tools

Google

GoogleEste mes se han actualizado las Webmaster Tools de Google con mejoras en la sección «Diagnóstico->Errores de rastreo» que, según Google, aumentarán su utilidad.

La sección se ha modificado dividiéndola en dos partes, «errores del sitio» y «errores de URL». Vamos a intentar explicar un poco en que consisten estos nuevos cambios y como sacarles partido.

Errores de URL

Este tipo de errores son específicos de una URL determinada, los errores que veremos en esta sección son errores que se producen cuando GoogleBot intenta acceder a la URL, siempre después de resolver el DNS, establecer la conexión con el servidor, leer el fichero robots.txt por si existe alguna restricción. Este tipo de errores se dividen en diferentes categorías dependiendo del tipo de error y del contenido de la URL.

Otra mejora, interesante bajo mi punto de vista, es que solo nos mostrarán los 1000 errores, eso sí, a juicio de Google más importantes que encontraron y no los 100000 que mostraban antes casi sin orden ni concierto y en donde no era posible diferenciar los errores importantes de los menos importantes. También ofrecen la posibilidad de filtrar los resultados, consultar información detallada sobre el error e informar a Google de cuando se han solucionado.

En el listado no aparecerán las URLs que están bloqueadas por el fichero robots.txt, dato importante, porque si tenías muchas URL bloqueadas, por la razón que sea, se hacía muy tedioso ir discriminándo las «buenas» de las «bloqueadas».

Al hacer click en el error Google nos presentará el detalle del error con información interesante para darle una solución, el detalle del error, si aparece en el sitemap y desde que URLs está enlazada.

Para evitar la pérdida de tiempo solucionando los errores que Google detecta en el listado aparecen ordenados, inicialmente, por prioridad, para que aparezcan al principio los errores importantes y podamos arreglarlos rápidamente.

Otra interesante opción es que cuando hayamos solucionado el error podemos realizar una petición como GoogleBot para ver el resultado y si el error está solucionado marcarlo y desaparecerá de la lista de errores. Si la próxima vez que Googlebot pase por nuestras URLs y detecta el mismo error volverá a aparecer en el listado, aunque en este caso no se si se informará de que es un error… recurrente o repetido o solucionado anteriormente, sería otro dato muy interesante.

Errores del sitio

Este tipo de errores son los que afectan a todo el sitio web, desde errores de resolución de DNS, hasta conectividad pasando por fichero robots.txt. Antes las Webmaster Tools te avisaban de este tipo de errores por URL, pero claro, si tenemos un error de DNS y 5000 URLs, aparecían 5000 errores cuando en realidad solo era uno, grave, pero solo uno. Según Google si alguno de estos errores se repite con asiduidad intentarán avisarnos mediante un sistema de alertas.

 

Os dejo unas capturas de pantalla de algunos errores de algunascosas.com y el enlace al artículo publlicado en el blog oficial.