BlackHat Seo

BlackHat SEO

BlackHat SEOTodos hemos oído alguna vez el término BlackHat SEO, pero ¿qué significa?, ¿en qué nos ayuda?, ¿en qué nos perjudica?

Como es lógico todo el mundo quiere salir en los primeros resultados de búsquedas de los principales buscadores pero conseguirlo es una tarea de tiempo, paciencia y hacer las cosas bien.

El BlackHat SEO consiste en conseguir posicionar una URL con técnicas que no son del agrado de los buscadores por lo que si descubren que una URL está empleando este tipo de tácticas las penalizaciones suelen ser bastante duras, con la consiguiente pérdida de posiciones que conlleva generalmente una pérdida económica para el sitio penalizado. Es muy importante utilizar técnicas de WhiteHat SEO para evitar penalizaciones.

 

 

Estos son algunas de las tácticas más comunes a la hora de utilizar BlackHat SEO,

  • Keyword stuffing. Cualquier persona que se dedique profesionalmente al SEO sabe la importancia de los términos densidad y prominencia a la hora de introducir las palabras clave, keywords, dentro de los contenidos. La práctica del keywords stuffing se basa en saturar con las palabras clave el contenido. Este tipo de prácticas se descubre muy fácilmente.
  • Compra de enlaces. Una de las prácticas más habituales es la compra de enlaces, por un precio asequible consigues muchos backlinks a tu web. El problema que tiene esta práctica es que las páginas donde se insertan los enlaces normalmente no tienen nada que ver con la temática de la web enlazada, además no suelen ser enlaces de calidad.
  • Etiquetas meta con spam. Aunque en los tiempos que corren las etiquetas meta tienen menos importancia para algunos motores de búsqueda hace relativamente poco tiempo eran la fuente de información con la que se proveían los buscadores,  con esta práctica lo que se hace es saturar las diferentes etiquetas meta, normalmente las keywords y la description con las palabras clave que se quieren posicionar. Lógicamente el usuario que visita la web no se da cuenta ni le afecta lo más mínimo pero los buscadores ( que se fijan en todo)  sí. No es muy habitual y cuando sucede muchas veces es por ignorancia de la persona que lo ha hecho.
  • Contenido oculto. Otra práctica muy extendida que consiste en añadir enlaces invisibles para el usuario ( con el color de fondo de la página, en el código HTML en zonas que los navegadores no muestran, etcétera), aunque hace ya tiempo que no lo veo porque ahora los motores de búsqueda están hilando tan fino que suelen detectar este tipo de prácticas con bastante facilidad.
  • Contenido duplicado. La milenaria táctica del «copy and paste», aunque Google en este caso no penaliza directamente este tipo de prácticas sin que filtra estos resultados de su SERP.

Si haces BlackHat SEO sabes que te la juegas, si te descubren no podrás quejarte y si no te pillan pues suerte que has tenido, así que cada uno sabrá.

 

Etiqueta META robots

Sitios amigables para los motores de búsqueda

Hoy voy a dedicar una pequeña entrada a la etiqueta robots que se puede incluir en los meta tags de una url. Como sabemos en cada una de nuestras páginas ( URLs ) podemos añadir diferentes meta tags que ayudarán a conseguir que los robots de búsqueda nos indexen mejor nuestras páginas.

meta tags

La etiqueta robots nos permite indicarle al robot de búsqueda como queremos que nos indexe y que información de nuestra web,en concreto de la URL que está visitando ( podemos incluir diferentes declaraciones de esta etiqueta para diferentes páginas ) que queremos que muestre en sus resultados. Gracias a la etiqueta robots podemos decirle al robot de búsqueda que es lo que queremos que indexe y si queremos que siga los enlaces que existen en esa página. Continuar leyendo «Etiqueta META robots»

Bing copia a Google

Bing versus Google

Bing versus GoogleNo he querido escribir sobre esta nueva polémica entre Bing ( Microsoft ) y Google hasta no haber leído un poquito sobre el tema y después de haber leído varios blogs, algunos periódicos digitales. La «cosa» parece estar clara, Bing ha copiado los resultados de Google, aunque no todo está dicho, normal unos se defienden y otros atacan.

Pero las pruebas presentadas por Google parecen ser muy claras.

Las historia parece ser así, hace tiempo que Google venía comprobando que los primeros resultados proporcionados por ellos y los proporcionados por Bing era iguales, por lo que después del presunto cabreo, se prepara una «operación encubierta», ¿será la única o trampearán algún que otro resultado? ahí queda la pregunta para debatir, para comprobar si realmente los resultados entre los dos motores de búsqueda seguían siendo iguales.

Para ello Google creó varias búsquedas, denominadas «sintéticas», según entiendo son búsquedas que nadie haría o que la probabilidad de que se hagan son mínimas, por ejemplo, «hiybbrqag». Los resultados de estas búsquedas en ambos motores de búsqueda reportaron en algunos casos cero resultados y en otros unos pocos resultados con escasa relevancia.

Las búsquedas de Bing según Google
Las búsquedas de Bing según Google

Aquí es donde empieza la «operación encubierta» ya que Google para estas búsquedas modificó su programación y los resultados devueltos estaban colocados manualmente, en vez de utilizar sus algoritmos.Después de dejar pasar algún tiempo, se volvieron a realizar las mismas búsquedas en ambos motores de búsqueda, y cual fue la sorpresa cuando comprobaron que los resultados devueltos por Bing eran exactamente los mismos que Google había «colocado a mano» en su motor de búsqueda.

Las «operación encubierta» se llevó a cabo a lo largo del mes de diciembre pasado.

Aquí os dejo dos capturas de pantalla con alguna de estás búsquedas en ambos motores de búsqueda.

Bing copia a Google
Bing copia a Google
Otro captura de la copia de Bing a Google
Otro captura de la copia de Bing a Google

Ahora hablemos de la otra cara de la moneda, ¿ qué dice Microsoft de todo esto ?

Desde que Google hizo público, a través de su blog, estas acusaciones, Microsoft ha rebatido duramente acusando a Google de tener una «indignación fingida» y de manipular las pruebas que demuestran la copia por parte de Bing.

Microsoft siempre ha defendido su «inocencia», pero ahora ataca diciendo que «Google participa en un ataque engañoso a Bing», según comenta Yusuf Mehdi, vicepresidente senior de la división de servicios en línea de Microsoft.

El Sr. Yusuf afirma que tienen «algunas de las mejores mentes del mundo trabajando en la calidad de las búsquedas y la relevancia» y afirma que es Google quien ha copiado alguna de las características del motor de búsqueda de Microsoft y denuncia que Google ha utilizado un sistema de click fraud para producir los resultados de las búsqueda ( este sistema es utilizado para falsear resultados de los motores de búsqueda ), pero también afirma que no tienen  «problema con ello y nos da gusto poder ayudar a que la industria adopte buenas ideas».

Sin duda, la «guerra» ha empezado… o no?

Que cada uno saque sus propias conclusiones.

Editado: Si queréis comprobar la búsqueda en los dos motores al mismo tiempo podéis probar en estos sitios web, Bingle, Blackdog ó Bing-vs-Google. Aunque también podéis hacer la búsqueda en los dos motores por separado, Bing y Google

Cuanto 2.0 es tu web

Web 2.0

Hoy he descubierto How web 2.0 is your website? una curiosa web que nos informa de «cuanto» 2.0 son nuestros sitios web.

Para ello analiza varios aspectos,

  • Si utilizamos reemplazo de fuentes
  • Si tenemos un feed RSS
  • Si tenemos un contador o un botón Twitter
  • Si utilizamos jQuery
  • Si utilizamos Flash
  • Si tenemos un buscador implementado
  • Si tenemos el fix para IE6 de los png
  • Si tenemos las opciones de «me gusta», «compartir» y «conectar» de Facebook
  • Si utilizamos XML
  • Si usamos hojas de estilo condicionales

En el caso de nuestro blog algunascosas cumplimos con la web 2.0 en un 60%, no está mal.

Web 2.0
Web 2.0

Cuanto vale tu sitio web?

Veo una entrada en Facebook acerca de estimurl un curioso sitio que nos dará el valor estimado de cualquier URL basándose en varios factores, además de facilitarnos otras informaciones como el PageRank, visitantes por países, DNS, ingresos diarios…

Además permite añadir un widget con el valor estimado de una URL.

Ufff que poco vale nuestra web 🙁

Otro valor interesante de esta web es que nos ofrece un informe SEO con bastantes indicadores que nos darán una idea de sí estamos realizando el trabajo SEO correctamente, en nuestro caso hemos obtenido un 40/100, algo tendremos que mejorar.


123Linkit

A través del blog de Vera he encontrado a la gente de 123Linkit, que te permite rentabilizar tu blog sin, como dicen ellos, penalizar el page rank que tengas.

En estos momentos existen multitud de empresas que a través de un sistema u otro te permiten sacar unos eurillos al mes para poder ir pagando el hosting, el dominio o para irte a cenar con tu mujer, pero en algunos casos con estos servicios tu PR se ve penalizado y, lógicamente, no se responsabilizan de esta pérdida de PR. Como ellos dicen:

Links include Nofollow Tags

We defend your PageRank and ensure you don’t get penalized by search engines with the nofollow tags that are automatically added to your affiliate links.

123Linkt es un plugin para WordPress que está basado en palabras clave, keywords, y los enlaces se asignan de forma automática sin tener que realizar ninguna acción.

Voy a probar este servicio, que aunque tengo un bonito 0, cero, de PR en todas las páginas, puede ser interesante.

Podéis descargarlo desde aquí.

Una vez instalado y activado tenemos que darnos de alta en 123Linkit para que nos proporcionen las claves API necesarias para el funcionamiento y que tenemos que introducir en el la opciones del plugin.

Para empezar a agregar los enlaces asignados tendremos que acceder al panel de edición de entradas en WordPress y veremos un widget que lleva el nombre del servicio, aunque el plugin está en inglés simplemente debemos introducir las claves API que nos proporcionaron al darnos de alta.

Aquí os dejo un video (en inglés) demostrativo de como se instala y se emplea el plugin. Es mejor verlo a pantalla completa.

 

Google rastrea el robots.txt a diario

Leo en seroundtable que Google solo comprueba una vez al día el robots.txt de algunos sitios web, así le responde JohnMu, trabajador de Google, a un usuario.

Con esta respuesta queda claro que Google sí rastrea el robots.txt todos los días y en muchos casos varias veces al día. Yo puedo asegurar que el googlebot está contínuamente visitando algunascosas.com.

Google rastrea robots.txt
Google rastrea robots.txt

Curiosidades con el PR y los nofollow

Nuestro querido y odiado Google lleva ya bastante tiempo sin hacer que nuestros sitios web se tambaleen con alguna «próxima gran cosa» ( del ingles the next big thing ). Ni Google waves, Page Speed, una falsa actualización del PageRank, Android nada parece haber despertado la atención que suelen haber en estos casos. Aunque ahora parece que hay una «nueva gran cosa».

Parece ser que el nofollow se traga el PageRank:

  • Google hasta el momento no seguía los enlaces nofollow
  • Si había algún nofollow en alguna url el PageRank se repartía entre los enlaces dofollow de la url
  • Ahora los enlaces nofollow contarán a la hora de repartir el PageRank de una página. Google los cuenta como enlacs normales aunque luego su parte de PR se pierde

Con estas nuevas características a la hora de asignar el PageRank las consecuencias creo que son claras:

  • Los enlaces de pago tendrán más problemas
  • El nofollow deja de ser útil para movel el PageRank por una web

También se dice que Google es capaz de seguir los enlaces Javascript muy utilizados para ocultar a Google la condición de enlaces de pago.

Con estos nuevos cambios solo se verían afectadas las webs que tengan un SEO mal hecho. Puede que motivado por estos cambios sea también la pérdida inexplicable de PR de algunas páginas. Si un artículo tiene 20 comentarios son 20 enlaces más a repartir PR, por lo que si tienes una página con muchos enlaces y comentarios y muy poco PR puede ser la causa de la pérdida de PR.