Penguin 2.0

Google Penguin 2.0

Google Penguin 2.0

Google PenguinDespués de mucho tiempo sin postear ningún tema referente a SEO por diferentes motivos, el principal era de tipo profesional, hoy volvemos a la carga con este nuevo post sobre nuestro «amigo» Google Penguin que acaba de sacar su versión 2.0.

Google, con esta nueva versión de su algoritmo Penguin, intenta dar un «golpe en la mesa» para evitar mostrar en su serp resultados que no sean realmente relevantes… Relevantes para Google

Los puntos principales contra los que Google Penguin seguirá «luchando» son,

  • Granjas de links
  • Keyword stuffing ( abuso de palabras clave )
  • Sobre optimización
  • Enlaces no naturales

Por lo tanto para tener un sitio web «optimizado» para que Google Penguin no le afecte debemos, entre otros, seguir estas directrices,

  • Evitar el contenido duplicado añadiendo enlaces canónicos (rel=»canonical» )
  • Ofrecer información de interés, es mejor tener pocos contenidos de calidad y con información interesante que mucho contenido de poca calidad
  • Contenido de calidad, en relación con el punto anterior, poco contenido de calidad es mejor que mucho contenido sin valor
  • La densidad de la palabras clave debe ser razonable, en algunos casos se habla de un 4,5% como máximo pero, yo siempre aconsejo utilizarlas lo necesario, en este caso, personalmente, no hago caso de esta recomendación, ya que, en algunos casos es necesario sobre pasar el 4,5% sugerido.
  • Es necesario postear como autor verificado, de esta manera tanto tú como tu blog conseguiréis relevancia en los temas de los que hables.

¿ El Penguin ha tocado tu web?

Si el Penguin ha tocado tu web recuerda seguir las indicaciones de las webmaster guidelines de google para corregir los aspectos por los que tu sitio web ha sido «penalizado».

Si no sabes si has sido «penalizado» estos son algunas cosas que debes comprobar,

  • Caída significativa del tráfico
  • Caída del ranking en los serp
  • Caída de PR
  • Comprobar que no tienes backlinks malos o de dudosa reputación

 

Para concluir os dejo esta buena infografía de la gente de Koenig.

Google Penguin 2.0

Errores SEO

Google

GoogleExisten una serie de prácticas ( errores SEO ) que, aunque ahora no se ven tanto, hace un tiempo eran bastantes usuales a la hora de realizar tareas de posicionamiento en buscadores, me refiero al encubrimiento, redireccionamientos elusivos en JavaScript y las páginas puerta. Estos tres casos son penalizables por nuestro querido Google por lo que es fundamental evitar cualquiera de estas prácticas para «dormir tranquilo».

Vamos a ver que es cada una de estas malas prácticas para el posicionamiento en Google.

Encubrimiento

El encubrimiento consiste en mostrar contenidos diferentes a usuarios y motores de búsqueda, si Google detecta estas prácticas entenderá que tu sitio no es legal y simplemente desindexará tus contenidos.

Aunque tengamos elementos Javascript, flash, etcétera que teóricamente los motores de búsqueda no pueden leer no debemos cambiar el contenido dependiendo del user-agent, recuerda que puede haber usuarios que acceden a tu sitio de una forma similar a la que lo hacen los motores de búsqueda ( navegadores de solo texto, personas invidentes, etc. ). Lo que tenemos que hacer es un correcto uso de los atributos de las diferentes etiquetas HTML, por ejemplo el alt de las etiquetas <img> ( imágenes ) y/o proporcionar contenidos textuales, pero que sean los mismos, en etiquetas <noscript>.

Resumiendo, siempre muestra el mismo contenido independientemente de quien sea el que visite tu sitio web.

Redireccionamientos elusivos en JavaScript

Al igual que el encubrimiento el redireccionamiento es una práctica que Google detecta como engañosa, fraudulenta porque al insertar en JavaScript una redirección del tipo que sea, el motor de búsqueda indexará la página original mientras que el usuario es redirigido automáticamente a otra página. Es importante recordar que los enlaces insertados en javascript no son penalizables, siempre y cuando cumplan con las directrices para webmasters de Google.

Los motores de búsqueda no pueden acceder a los contenidos escritos en Javascript por lo que es interesante añadir esos enlaces en etiquetas <noscript> para que de esta forma sí puedan seguirlos.

Páginas puerta

Este tipo de páginas se caracterizan por estar agrupadas en páginas de baja calidad, sin contenidos ni nada que ofrecer a los usuarios, optimizadas para un criterio determinado. Estas páginas suponen una infracción de las directrices para webmasters de Google por lo que hay que evitar tener backlinks en este tipo de URLs.

Si te has visto afectado por alguna penalización puede que haya sido por alguna de estás malas prácticas o errores SEO, comprueba tu sitio y envía una solicitud de reconsideración cuando tengas los problemas resueltos.

 

Tweets de la semana 2012-04-15

Tweets de la semana 2012-04-08

Novedades en las Webmaster tools

Google

GoogleEste mes se han actualizado las Webmaster Tools de Google con mejoras en la sección «Diagnóstico->Errores de rastreo» que, según Google, aumentarán su utilidad.

La sección se ha modificado dividiéndola en dos partes, «errores del sitio» y «errores de URL». Vamos a intentar explicar un poco en que consisten estos nuevos cambios y como sacarles partido.

Errores de URL

Este tipo de errores son específicos de una URL determinada, los errores que veremos en esta sección son errores que se producen cuando GoogleBot intenta acceder a la URL, siempre después de resolver el DNS, establecer la conexión con el servidor, leer el fichero robots.txt por si existe alguna restricción. Este tipo de errores se dividen en diferentes categorías dependiendo del tipo de error y del contenido de la URL.

Otra mejora, interesante bajo mi punto de vista, es que solo nos mostrarán los 1000 errores, eso sí, a juicio de Google más importantes que encontraron y no los 100000 que mostraban antes casi sin orden ni concierto y en donde no era posible diferenciar los errores importantes de los menos importantes. También ofrecen la posibilidad de filtrar los resultados, consultar información detallada sobre el error e informar a Google de cuando se han solucionado.

En el listado no aparecerán las URLs que están bloqueadas por el fichero robots.txt, dato importante, porque si tenías muchas URL bloqueadas, por la razón que sea, se hacía muy tedioso ir discriminándo las «buenas» de las «bloqueadas».

Al hacer click en el error Google nos presentará el detalle del error con información interesante para darle una solución, el detalle del error, si aparece en el sitemap y desde que URLs está enlazada.

Para evitar la pérdida de tiempo solucionando los errores que Google detecta en el listado aparecen ordenados, inicialmente, por prioridad, para que aparezcan al principio los errores importantes y podamos arreglarlos rápidamente.

Otra interesante opción es que cuando hayamos solucionado el error podemos realizar una petición como GoogleBot para ver el resultado y si el error está solucionado marcarlo y desaparecerá de la lista de errores. Si la próxima vez que Googlebot pase por nuestras URLs y detecta el mismo error volverá a aparecer en el listado, aunque en este caso no se si se informará de que es un error… recurrente o repetido o solucionado anteriormente, sería otro dato muy interesante.

Errores del sitio

Este tipo de errores son los que afectan a todo el sitio web, desde errores de resolución de DNS, hasta conectividad pasando por fichero robots.txt. Antes las Webmaster Tools te avisaban de este tipo de errores por URL, pero claro, si tenemos un error de DNS y 5000 URLs, aparecían 5000 errores cuando en realidad solo era uno, grave, pero solo uno. Según Google si alguno de estos errores se repite con asiduidad intentarán avisarnos mediante un sistema de alertas.

 

Os dejo unas capturas de pantalla de algunos errores de algunascosas.com y el enlace al artículo publlicado en el blog oficial.

Error de Google Panda 3.4

Google

GoogleEl día 23 de marzo Google lanzó una nueva actualización de su algoritmo, la versión 3.4 de Google Panda, como comentábamos en nuestro post La bomba de Google a las redes de blogs, lo curioso esta vez es la metedura de pata o no… de esta nueva actualización ya que está posicionando en el top5 una URL de blogger sin contenidos.

La URL en cuestión es http://makemoneyforbeginners.blogspot.com.es/ como podéis ver no tiene absolutamente nada.

Si buscamos el criterio «make money online» tanto en google.com como en google.es vemos posicionada esta URL en la posición 3 para google.com y en la 4 posición para google.es

¿Dónde está el truco?

¿Un error en las últimas actualizaciones del Google Panda? Pudiera ser, pero me parece un error demasiado grande como para ser verdad… la otra posibilidad es que Google genere automáticamente URLs para rellenar algunos SERPs en los que pueda conseguir tráfico que haga click en anuncios, aunque en este caso no tiene ningún anuncio.

Surgen algunos dudas razonables…

Aquí os dejo las capturas hechas hace unos 10 minutos.

URLs amigables qué son y cómo utilizarlas

Sitios amigables para los motores de búsqueda

url amigable para el posicionamiento en buscadoresÚltimamente estoy viendo bastantes casos de sitios web que intentan conseguir un buen posicionamiento en buscadores sin tener un formato de url amigable por lo que en esta entrada voy a intentar explicar un poco el qué, por qué y cómo de las URLs amigables.

Normalmente este tipo de URLs las vemos en tiendas on-line, algunos gestores de contenidos y en menor medida en webs corporativas, aunque algunas empresas grandes sí tienen este formato.

Hoy en día es prácticamente fundamental para conseguir un buen posicionamiento en buscadores utilizar en nuestro/s sitio/s web el formato de URL amigable ya que también es un factor que los motores de búsqueda tienen en cuenta a la hora de dar valor a una URL determinada.
Pero,

¿qué es una URL amigable?

Como su nombre indica es una URL que es fácilmente reconocida y entendida por un humano, a las máquinas hoy por hoy le da igual aunque ya empiezan a ser un poco mas exigentes. Creo que se entiende mejor con un simple ejemplo,

URLs amigables: http://www.algunascosas.comseo-off-page

URLs no amigables: http://www.algunascosas.com?p=3709

Como vemos es mucho más simple de recordar y de tener una idea del contenido de la URL con la opción amigable que con la no amigable.

Cómo crear nuestras URL amigables

Existen diferentes métodos para conseguir que nuestras URLs cambien ese aspecto tosco y complicado por uno más simple y sencillo. En este caso veremos como configurar nuestro servidor para generar este tipo de URLs automáticamente, gracias al servidor Apache y a los ficheros .htaccess.

El proceso es simple, primero tendremos que comprobar que tenemos el módulo de Apache mod_rewrite instalado y funcionando en nuestro servidor para realizar este comprobación simplemente generamos un fichero con extensión php y con el siguiente contenido,

<?php phpinfo(); ?>

y lo subimos a nuestro servidor, una vez que lo llamemos, por ejemplo, midominio.com/fichero.php tendremos que comprobar que el módulo está instalado, como se ve en la imagen.

El siguiente paso es crear un fichero .htaccess, ojo el punto al principio es necesario en el 99.9% de los casos, el contenido de este fichero de texto es el siguiente,

  1. Options +FollowSymLinks
  2. RewriteEngine on
  3. RewriteRule ^(.*)\.htm$ $1.php [NC]

En la línea 1 es condición indispensable para que funcione el motor de reescritura.

En la línea 2 activamos en motor de reescritura

En la línea 3 y sucesivas ya irían las reglas, en este ejemplo reescribiremos cualquier url con la máscara fichero.php por fichero.htm, un simple cambio de extensión, pero haciendo uso de expresiones regulares se puede llegar a un nivel de complejidad muy alto.

Podéis leer en bloogie un buen artículo sobre como crear URLs amigables.

Por qué las URLs amigables son importantes para el posicionamiento en buscadores

Como comentábamos antes las URLs amigables son otra factor a tener en cuenta a la hora de optimizar una URL para conseguir un buen posicionamiento en buscadores ya que los motores de búsqueda hoy en día ya le dan una importancia relevante a este aspecto. El motivo es el mismo, claro y conciso, es más simple una URL amigable que una no amigable y a los motores de búsqueda le gustan las cosas simples.

Por esta razón os dejo un par de consejos a la hora de crear vuestras URLs amigables,

  • Son mejor las URLs cortas que las largas. Intenta no utilizar artículos, preposiciones…
  • Genera una redirección 301 de tus URLs con y sin www
  • Nunca uses signos de puntuación y espacios en blanco
  • Separa las palabras con guiones, por ejemplo, http://www.algunascosas.comseo-on-page
  • No muestres la extensión de los ficheros, en vez de que la url finalice con /fichero.php has que acabe solo con /fichero
  • Intenta crearlas con sentido y que tenga relación con el contenido que vas a mostrar
  • Crea URLs únicas

No dudéis en plantear cualquier duda que tengáis con este tema.

WhiteHat SEO

WhiteHat SEO

Hace unos días escribíamos sobre el BlackHat SEO y hoy nos toca hablar del WhiteHat SEO.

WhiteHat SEO

El WhiteHat SEO al contrario que el BlackHat SEO se base en promocionar una URL para una determinada palabra clave utilizando técnicas «legales» a la vista de los motores de búsqueda. Al utilizar este tipo de técnicas conseguiremos posicionar, de una manera estable y en el tiempo, nuestra URL para las palabras claves que hemos elegido en los primeros puestos de los SERPs.

El uso de este tipo de técnicas se basan en unos pocos aspectos que debemos tener muy claros ya que salirnos de ellos, en algunos casos, puede llegar a considerarse por los motores de búsqueda como prácticas «BlackHat SEO» con la posibilidad de que la URL y el sitio sean penalizados. Por lo que, como he oído en más de una ocasión, utilizar técnicas «no legales» es pan para hoy y hambre para mañana.

A continuación detallamos las prácticas más importantes para realizar un trabajo SEO de calidad y «legal»,

  • Contenido de Calidad. Con las nuevas modificaciones del algoritmo de Google, el famoso Panda, es primordial tener contenido de calidad y fresco ( actualizaciones regulares ). El contenido bien redactado, de calidad y único es condición sine que non.
  • Palabras clave bien estudiadas. Al final no es tan importante el número de personas que buscan un criterio, sino conseguir posicionarte con los criterios que realmente te harán ganar dinero. Pongamos un ejemplo,
    Criterio 1: «pienso para perros»
    Criterio 2: «comprar pienso para perros».
    Con el criterio 1 seguramente consigamos muchas visitas pero no resultados ya que, seguramente, solo un número reducido de visitantes acabarán realizando una compra, pero con el criterio 2 puede que no consigamos tantas visitas pero sí conseguiremos que un alto porcentaje de esas visitas realicen una compra, ya que el criterio es específico.
  • Enlaces ( backlinks ) de calidad. Otro aspecto a tener en cuenta es el de los backlinks ya que, al igual que con las palabras claves, es primordial tener enlaces entrantes de calidad y de la misma temática que la web y/o landing page. Intentar evitar en lo posible el intercambio de links fuera de la temática de la web y evitar, por supuesto, las granjas de links, ya que no es lo mismo un intercambio de links que un enlace.
  • HTML claro y conciso. Otro aspecto a tener en cuenta es la optimización del HTML. La etiqueta <title> diría que, después del contenido de calidad y actualizado, es primordial para conseguir un buen posicionamiento por lo que es necesario pararse a pensar un poco en ella para lograr en muy pocos caracteres dar una idea de lo que nos vamos a encontrar en la página.
    A parte, tendremos que tener el HTML bien organizado y utilizar correctamente las diferentes etiquetas,
    Metas, description, keywords ( aunque ésta ya no se tiene muy en cuenta )
    Encabezados, H1, H2, H3
    Atributo ALT en las imágenes
    Atributo TITLE en los enlaces
    Uso de hojas de estilo, css, ya que facilitarán bastante la labor de los motores de búsqueda.
    Piensa que los robots que utilizan los motores de búsqueda no son humanos y no ven la parte «bonita» de una página. Simplemente ven el código y, es a partir de éste, cuando realizan sus valoraciones, por lo que un HTML mal estructurado, con poco contenido, con muchas imágenes… no será bien valorado porque no ofrecen un contenido de calidad ( siempre volvemos a este punto )
  • Observar los SERPs y la competencia. Otro punto importante es observar el posicionamiento de las páginas de la competencia, porque siempre hay alguien que sabe más que nosotros y/o lo está haciendo mejor.

Estudiar, investigar, paciencia… son términos íntimamente relacionados con el SEO, ya que no es una «ciencia exacta» y se depende de empresas privadas ( Microsoft, Google… ) en las que, lógicamente, priman sus intereses económicos. Es preferible obtener resultados a medio plazo ( 4/5 meses ) que a corto plazo ( 2/3 meses ), porque o el criterio que utilizas es bastante complejo ( más de 4 palabras ) o estás utilizando, con casi toda seguridad, técnicas de BlackHat SEO.

BlackHat Seo

BlackHat SEO

BlackHat SEOTodos hemos oído alguna vez el término BlackHat SEO, pero ¿qué significa?, ¿en qué nos ayuda?, ¿en qué nos perjudica?

Como es lógico todo el mundo quiere salir en los primeros resultados de búsquedas de los principales buscadores pero conseguirlo es una tarea de tiempo, paciencia y hacer las cosas bien.

El BlackHat SEO consiste en conseguir posicionar una URL con técnicas que no son del agrado de los buscadores por lo que si descubren que una URL está empleando este tipo de tácticas las penalizaciones suelen ser bastante duras, con la consiguiente pérdida de posiciones que conlleva generalmente una pérdida económica para el sitio penalizado. Es muy importante utilizar técnicas de WhiteHat SEO para evitar penalizaciones.

 

 

Estos son algunas de las tácticas más comunes a la hora de utilizar BlackHat SEO,

  • Keyword stuffing. Cualquier persona que se dedique profesionalmente al SEO sabe la importancia de los términos densidad y prominencia a la hora de introducir las palabras clave, keywords, dentro de los contenidos. La práctica del keywords stuffing se basa en saturar con las palabras clave el contenido. Este tipo de prácticas se descubre muy fácilmente.
  • Compra de enlaces. Una de las prácticas más habituales es la compra de enlaces, por un precio asequible consigues muchos backlinks a tu web. El problema que tiene esta práctica es que las páginas donde se insertan los enlaces normalmente no tienen nada que ver con la temática de la web enlazada, además no suelen ser enlaces de calidad.
  • Etiquetas meta con spam. Aunque en los tiempos que corren las etiquetas meta tienen menos importancia para algunos motores de búsqueda hace relativamente poco tiempo eran la fuente de información con la que se proveían los buscadores,  con esta práctica lo que se hace es saturar las diferentes etiquetas meta, normalmente las keywords y la description con las palabras clave que se quieren posicionar. Lógicamente el usuario que visita la web no se da cuenta ni le afecta lo más mínimo pero los buscadores ( que se fijan en todo)  sí. No es muy habitual y cuando sucede muchas veces es por ignorancia de la persona que lo ha hecho.
  • Contenido oculto. Otra práctica muy extendida que consiste en añadir enlaces invisibles para el usuario ( con el color de fondo de la página, en el código HTML en zonas que los navegadores no muestran, etcétera), aunque hace ya tiempo que no lo veo porque ahora los motores de búsqueda están hilando tan fino que suelen detectar este tipo de prácticas con bastante facilidad.
  • Contenido duplicado. La milenaria táctica del «copy and paste», aunque Google en este caso no penaliza directamente este tipo de prácticas sin que filtra estos resultados de su SERP.

Si haces BlackHat SEO sabes que te la juegas, si te descubren no podrás quejarte y si no te pillan pues suerte que has tenido, así que cada uno sabrá.

 

Etiqueta META robots

Sitios amigables para los motores de búsqueda

Hoy voy a dedicar una pequeña entrada a la etiqueta robots que se puede incluir en los meta tags de una url. Como sabemos en cada una de nuestras páginas ( URLs ) podemos añadir diferentes meta tags que ayudarán a conseguir que los robots de búsqueda nos indexen mejor nuestras páginas.

meta tags

La etiqueta robots nos permite indicarle al robot de búsqueda como queremos que nos indexe y que información de nuestra web,en concreto de la URL que está visitando ( podemos incluir diferentes declaraciones de esta etiqueta para diferentes páginas ) que queremos que muestre en sus resultados. Gracias a la etiqueta robots podemos decirle al robot de búsqueda que es lo que queremos que indexe y si queremos que siga los enlaces que existen en esa página. Continuar leyendo «Etiqueta META robots»