Actualización de Google Panda

Google Panda

Google PandaGoogle ha anunciado una nueva actualización de Google Panda a la versión 3.9.1, según confirma Google esta nueva actualización solo afecta a menos de 1% de las búsquedas y es una actualización menor.

Aquí el tweet con la confirmación de Google,

 

Google ha dicho que las futuras actualizaciones del Google Panda serán más suaves y consistentes que las anteriores al contrario que las del Google Penguin que serán más moviditas.

Tendremos que esperar a ver que sucede en próximas actualizaciones del Google Penguin.

Actualizaciones algoritmos de Google

Google

Google

En esta entrada iremos añadiendo las distintas actualizaciones de los algoritmos de Google. Dejad vuestros comentarios si os vistéis afectados por alguno de estos cambios o veis algún error.

Año 2012

24 de Julio 2012 Actualización Google Panda 3.9

Prácticamente un mes después de lanzar su última actualización de Google Panda, se lanza la nueva versión que, según Google, afecta a un 1% de las búsquedas. Los rankings han estado fluctuando casi una semana.

19 de Julio 2012 Enlaces no naturales

Google vuelve a enviar miles de mensajes a los usuarios de las webmaster tools indicando que han detectado enlaces no naturales en sus sitios web. Esta vez Google anunció que estos mensajes no representan un problema serio para los sitios a los que fueron enviados.

25 de Junio 2012 Google Panda 3.8

Una nueva actualización de Google Panda, en este caso parece ser una actualización en los SERP y no un cambio en el algoritmo y con bastante menor impacto que su predecesor Google Panda 3.7.

8 de Junio 2012 – Google Panda 3.7

Una nueva actualización de Google Panda que afecta a menos del 1% de las búsquedas. Aunque el impacto en el posicionamiento nos da una idea de que el impacto global ha sido mucho más alto que en las actualizaciones anteriores de Google Panda.

7 de Junio 2010

Google anuncia los cambios realizados, 39 en total, durante el mes de mayo pasado. Los más destacados son las mejores en Google Penguin, mejor detección de enlaces, cambios a la hora de mostrar el título y el snippet de una URL y actualizaciones en Google News.

25 de Mayo 2012 – Google Penguin 1.1

La primera actualización de los SERP con los datos recogidos por el nuevo algoritmo, Google Penguin. Interesante porque se confirma que los datos recogidos por Google Penguin se procesan a parte y luego se actualiza el motor de búsqueda.

4 de Mayo 2012

Google publica la lista de cambios realizados durante el mes de abril, en esta ocasión han sido 52 actualizaciones.

27 de Abril 2012 –

Una semana después de la última actualización de Google Panda, se lanza una nueva actualización de este algoritmo. El impacto parece ser bajo.

24 de Abril 2012 – Google Penguin

Después de varias semanas en las que se llevaba hablando de una actualización que penalizaría la sobre-optimización de sitios web Google lanza la «actualización contra el spam» que pronto se conocería como Google Penguin. El Google Penguin penaliza a sitios que hacen keyword stuffing ( sobre-densidad de palabras clave ) y otros factores relacionados con el spam. Se estima que afecta a un 3,1% de la búsquedas en inglés.

19 de Abril 2012 – Google Panda 3.5

Google lanza una nueva actualización de Google Panda que varios cambios que hace complicado medir el alcance que tiene pero parece un actualización menor con poco impacto en los SERP.

16 de Abril 2012 – Dominios aparcados

Se corrige un error a la hora de interpretar si un dominio está aparcado ( sin uso ) o no.

3 de Abril 2012

Google lanza una nueva actualización con más de 50 cambios realizados en Marzo. Estos incluyen la confirmación de Google Panda 3.4, cambios en la métrica de los textos de los enlaces ( anchor-text ), actualizaciones en la búsqueda de imágenes y cambios en la forma en el motor de búsqueda interpreta consultas locales.

23 de Marzo 2012 – Google Panda 3.4

Google anuncia una nueva actualización de Google Panda, la versión 3.4. Se estima que afectan a un 1,6% de los resultados de búsquedas.

27 de Febrero 2012 – Google Panda 3.3

El mes de febrero ha sido un mes de muchos cambios. Se lanza la actualización de Google Panda a la versión 3.3, aunque parece ser una actualización menor que no afecta a muchos sitios.

27 de Febrero 2012

Google lanza una segunda actualización del «search quality highlights» con más de 40 cambios. Entre los más salientables destacan actualización de la búsqueda de imágenes, actualizaciones de contenidos frescos, y una actualización del Google Panda.

27 de Febrero 2012 – Venice

Con el nombre de «Venice» Google lanza una nueva actualización mensual que parece ser más agresiva a la hora de filtrar los resultados orgánicos geolocalizados.

As part of their monthly update, Google mentioned code-name «Venice». This local update appeared to more aggressively localize organic results and more tightly integrate local search data. The exact roll-out date was unclear.

3 de Febero 2012

Google lanza una nueva actualización, «search quality highlights», penalizando sitios lentos, que no actualicen sus contenidos con frecuencia, que tengan faltas ortográficas, pero la mayor novedad fue la integración de Google Panda en índice de búsqueda.

19 de Enero 2012

Google actualiza su algoritmo para detectar sitios web con demasiada publicidad que evita a los usuarios ver los contenidos. Aunque esta actualización no tiene denominación oficial sí ha sido llamada como «Top heavy».

18 de Enero 2012 – Panda 3.2

Google confirma la actualización de Google Panda a la versión 3.2 aunque da a entender que solo ha sido un refresco y que no ha habido cambios en el algoritmo.

10 de Enero 2012 – Search + Your World

Google anuncia un cambio radical en la personalización de los SERP incluyendo resultados de Google+, también añade el botón para evitar la personalización de los SERP.

5 de Enero 2012

Google anuncia más de 30 cambios en sus algoritmos, incluyendo su buscador de imágenes, enlaces a sitios más relevantes, snippets más precisos y diversas mejores relacionadas con las consultas de búsquedas.

 

Diferencias entre Google Panda y Google Penguin

Mucha gente, en un principio, creímos que Google Penguin era el sucesos del Google Panda, yo entre ellos, pero como ahora sabemos que no es así. Google Panda y Google Penguin son dos algoritmos diferentes pero que se compenetran.

La gente de Reload Media  ha creado una infografía muy buena con las principales diferencias entre los dos algoritmos de Google.

Principales diferencias entre Google Penguin y Google Panda

Google Panda

Google Penguin

Aparición
23/02/2011
24/04/2012
Actualizaciones
13
1
Versión actual
3.7
1.1
Penalizan Contenido pobre, granjas de links, sitios web con un alto porcentaje de rebote Enlaces de baja calidad, sobre optimización, keyword stuffing
Actúan sobre Penaliza tácticas blackhat seo Mejora los resultados del motor de búsqueda
Lo que debes hacer para no ser penalizado Genera backlinks naturales y no de pago y no tengas contenido duplicado o de baja calidad Intenta generar contenido útil y único

A continuación la infografía de Reload Media


The difference between Google Panda & Penguin Infographic

Como vemos en la infografía el Panda afecta a un 12% de las búsquedas mientras que el Penguin solo a un 3,5% pero el impacto del Google Penguin es mucho mayor, lo que da a entender que para Google existe mucho contenido basura en la red.

Comprar enlaces

Comprar enlaces

La eterna pregunta, ¿es bueno comprar enlaces para conseguir mayor popularidad y un mejor posicionamiento?

Posicionar una URL para una determinado palabra clave, keyword, dentro del top10 de Google y si conseguimos la primera posición de los resultados naturales implica práctica e indiscutiblemente un aumento exponencial de las visitas y de los ingresos que genera.

Comprar enlacesComprar enlaces implica que muchísimas webs, cientos e incluso miles, insertarán un enlace hacia nuestra página para una determinada keyword lo que conseguirá, entre otros, los siguientes beneficios, primero, darnos popularidad con el consiguiente aumento de PageRank, segundo, conseguir el ansiado aumento de las visitas y el aumento de los ingresos.

Pero esta práctica si no se hace bien lo más probable es que Google la detecte y penalice y si lo hace los resultados pueden ser desastrosos, como vimos con el caso de buildmyrank y toda su red de afiliados.

El «pastel» de la publicidad en Internet es muy grande y creo que todos pueden comer. No estoy en contra de los enlaces de pago siempre y cuando se realice de una forma correcta.

¿Cúal es la forma correcta? Bajo mi punto de vista los enlaces de pago tienen que tener estas características obligatoriamente para intentar minimizar el riesgo de que los motores de búsqueda los detecten,

  • Te enlacen desde webs de temática similar o relacionada
  • Te enlacen progresivamente, es necesario realizar un estudio de los enlaces entrantes antes de comprar enlaces para que te vayan enlazando poco a poco. No vale que de repente aparezcan de la nada un montón de backlinks nuevos.
  • Que la paǵina donde esté el enlace no tenga más de 150 enlaces salientes ya que podría considerarse como una granja de links
  • Que no sean enlaces en JavaScript, Flash o dentro de marcos ( frames y/o iframes )
  • Que la página donde esté el enlace no tenga los atributos noindex ni nofollow

Y las características que deben tener son,

  • Keyword correcto, por el que queramos que nos encuentren
  • Siempre que sea un enlace de texto y a poder ser que esté en los contenidos, no en una columna o en el pié de la página
  • Que el enlace sea limpio, o sea un <a href=»urlquenosinteresa»>
  • Que el dominio donde esté puesto el enlace sea un dominio con autoridad, es decir, que tenga unos cuantos años y un PageRank elevado, cuanto más PageRank mejor.
  • Que los sitios web sean tanto blogs, como páginas personales, redes sociales, directorios, foros…
  • Enlaces que permanezcan en el tiempo, que no desaparezcan de la noche a la mañana

Pero recuerda que no solo con comprar enlaces y hacerlo bien conseguirás posicionarte en el top10, necesitarás trabajos de SEO, puedes consultar nuestros posts anteriores, crear sitios web amigables, urls amigables, SEO onpage, SEO offpage o echa un vistazo a nuestra categoría SEO por si te pueden servir de ayuda.

 

La bomba de Google a las redes de blogs

Redes de blogs

GoogleLas redes de blogs se han visto afectadas por las últimas actualizaciones del algoritmo de Google, Panda 3.4, con gran cantidad de desindexaciones de los sitios web pertenecientes a este tipo de redes.

Este tipo de redes es una forma rápida de conseguir backlinks que a Google no le agrada nada, los famosos enlaces de pago. Según se comenta Google ha enviado más de 700000 notificaciones en las últimas semanas advirtiendo a los webmasters de que sus sitios web contienen links «no naturales», o sea de pago.

El caso más conocido es el de BuilMyRank en el que a la mayoría de sus afiliados se han visto afectados, y hablamos de miles de sitios web. A parte de esta red también se han visto afectadas otras como SEO Link Monster y Authority Link Network, entre otras.

Teóricamente Google quiere que los backlinks hacia un sitio web se generen de manera natural y no pagando por ellos. Según Mat Cutts todo lo que tienes que  hacer para conseguir backlinks de calidad es generar contenido fresco, único y de calidad y Google hará el resto. Por la experiencia que tengo con algunos dominios esto no es cierto, siempre necesitarás el empujón de la popularidad en redes sociales para conseguir posicionarte relativamente bien, dentro del top30 como máximo, si al empujón de la popularidad le sumas que tu influencia en las redes sociales sea grande conseguirás «más puntos» para indexar mejor.

Redes de blogsEl problema de las redes de blogs es que siempre dejan algún tipo de rastro, desde unos dominios de referencia, un trozo de código HTML con algún rasgo característico, direcciones IP hasta que el afiliado añada el típico texto de «Anuncios patrocinados», con estas pistas Google no tiene muchos problemas en detectar este tipo de redes.

Entiendo que hoy en día se intenta sacar algún rendimiento monetario a nuestros blogs, la vida está muy cara y por poco que sea siempre será bienvenido un ingreso extra, pero siempre hay que hacer las cosas con prudencia y sin pasarse. Por ejemplo, si tenemos un blog repleto de publicidad, banners verticales, horizontales, enlaces de texto, etcétera, al final seguro que Google acabará enfadándose contigo y te penalizará de alguna manera, desindexación, bajada o caída de PageRank…

La pregunta del millón para los sitios web que están dentro de alguna de estas redes es, ¿qué hago ahora?

Bajo mi punto de vista si, como decía anteriormente, tu sitio web está repleto de publicidad intentaría eliminar cuanta más mejor para evitar alguna penalización y por supuesto generar contenidos de calidad para conseguir los dichosos backlinks de calidad. Mueve tus contenidos en las redes sociales, en blogs y foros de temática similar, de esta manera y si tus contenidos son interesantes seguro que conseguirás enlaces entrantes de calidad, puedes echar un vistazo a nuestro post Crear Sitios Web amigables.

Como es lógico, al ser Google una empresa privada ( creo que hay gente que todavía no lo sabe o no lo quiere saber ), busca ofrecer unos resultados resultados de búsquedas de calidad y con contenidos serios e interesantes, para realizar esta limpieza Google ha sacado a la luz la nueva versión de su algoritmo, el Panda, que ya va por su versión 3.4.

Google Panda 3.4 ya ha penalizado a miles de sitios webs desde su salida hace unos días, la última actualización realizada esta semana afectará a un 1,6% de los resultados de las búsquedas. Aunque parezca un número pequeño, un uno por cien, si pensamos que se realizan unos 800 millones de búsquedas de facebook al día el número ya no es tan pequeño…

Personalmente estoy de acuerdo en que un motor de búsqueda afine sus resultados para devolver datos que realmente valgan la pena. Últimamente estoy realizando búsquedas paralelas en varios buscadores ( duckduckgo, entireweb, bing y google ) y es bastante decepcionante hacer click en uno de los SERP y solo ver publicidad o URLs sin contenido, sobre optimizadas…pero también estoy en contra de la posición, bajo mi punto de vista, dominante que está tomando Google. Tienen todos los datos y si no haces las cosas como ellos quieren es malo.

Creo que Google debe limpiar sus SERP pero ser más permisivos con algunos aspectos como los backlinks de pago, el pastel es grande y todo el mundo puede comer…

 

Crear Sitios Web amigables

Sitios amigables para los motores de búsqueda

Sitios amigables para los motores de búsquedaEs importante crear sitios web amigables para los motores de búsqueda ya que hoy en día, al menos en España, si tus URLs no aparecen en el top10 o al menos en el top20 de los SERP de Google para ciertos keywords casi se puede decir que no «existes» ya que existen algunos estudios de mercado en los que se confirma que en un alto número de las búsquedas no se pasa de las página 2 de los SERP.

Para conseguir este posicionamiento además de los trabajos SEO, SEM… etcétera es necesario que nuestra web sea «amigable» para Google, para lograr este objetivo os detallo, a mi entender, las características que debe tener.

 

  • Tu home, página de inicio, debe ser rápida al cargar
  • Genera URLs amigables, simples y concisas
  • Debes tener contenido de calidad y único. No copies. Utiliza el contenido de los demás para crear el tuyo
  • Genera títulos cortos y descriptivos, etiqueta <title>
  • Consigue enlaces entrantes, backlinks, de calidad. A poder ser de la misma temática
  • Genera una estructura de enlaces internos correcta, cada una de tus URLs debe estar enlazada al menos desde un enlace en otra
  • Comprueba que tu sitio se ve correctamente con un navegador de solo texto y desde un un dispositivo móvil. Recuerda que, aunque algunos lo hagan, los motores de búsqueda no interpretarán el código JavaScript a la hora de leer los contenidos
  • Crea un sitemap con tus URLs y asigna correctamente tanto las prioridades como las actualizaciones y envíalo a los motores de búsqueda cada vez que generes nuevos contenidos
  • Muy importante, no emplees técnicas de BlackHat SEO porque al final casi siempre son detectadas y las penalizaciones suelen ser bastante fuertes

Espero que estos pequeños apuntes os ayuden a generar sitios web amigables para los motores de búsqueda. No dudéis en dejar vuestros comentarios.

 

URLs amigables qué son y cómo utilizarlas

Sitios amigables para los motores de búsqueda

url amigable para el posicionamiento en buscadoresÚltimamente estoy viendo bastantes casos de sitios web que intentan conseguir un buen posicionamiento en buscadores sin tener un formato de url amigable por lo que en esta entrada voy a intentar explicar un poco el qué, por qué y cómo de las URLs amigables.

Normalmente este tipo de URLs las vemos en tiendas on-line, algunos gestores de contenidos y en menor medida en webs corporativas, aunque algunas empresas grandes sí tienen este formato.

Hoy en día es prácticamente fundamental para conseguir un buen posicionamiento en buscadores utilizar en nuestro/s sitio/s web el formato de URL amigable ya que también es un factor que los motores de búsqueda tienen en cuenta a la hora de dar valor a una URL determinada.
Pero,

¿qué es una URL amigable?

Como su nombre indica es una URL que es fácilmente reconocida y entendida por un humano, a las máquinas hoy por hoy le da igual aunque ya empiezan a ser un poco mas exigentes. Creo que se entiende mejor con un simple ejemplo,

URLs amigables: http://www.algunascosas.comseo-off-page

URLs no amigables: http://www.algunascosas.com?p=3709

Como vemos es mucho más simple de recordar y de tener una idea del contenido de la URL con la opción amigable que con la no amigable.

Cómo crear nuestras URL amigables

Existen diferentes métodos para conseguir que nuestras URLs cambien ese aspecto tosco y complicado por uno más simple y sencillo. En este caso veremos como configurar nuestro servidor para generar este tipo de URLs automáticamente, gracias al servidor Apache y a los ficheros .htaccess.

El proceso es simple, primero tendremos que comprobar que tenemos el módulo de Apache mod_rewrite instalado y funcionando en nuestro servidor para realizar este comprobación simplemente generamos un fichero con extensión php y con el siguiente contenido,

<?php phpinfo(); ?>

y lo subimos a nuestro servidor, una vez que lo llamemos, por ejemplo, midominio.com/fichero.php tendremos que comprobar que el módulo está instalado, como se ve en la imagen.

El siguiente paso es crear un fichero .htaccess, ojo el punto al principio es necesario en el 99.9% de los casos, el contenido de este fichero de texto es el siguiente,

  1. Options +FollowSymLinks
  2. RewriteEngine on
  3. RewriteRule ^(.*)\.htm$ $1.php [NC]

En la línea 1 es condición indispensable para que funcione el motor de reescritura.

En la línea 2 activamos en motor de reescritura

En la línea 3 y sucesivas ya irían las reglas, en este ejemplo reescribiremos cualquier url con la máscara fichero.php por fichero.htm, un simple cambio de extensión, pero haciendo uso de expresiones regulares se puede llegar a un nivel de complejidad muy alto.

Podéis leer en bloogie un buen artículo sobre como crear URLs amigables.

Por qué las URLs amigables son importantes para el posicionamiento en buscadores

Como comentábamos antes las URLs amigables son otra factor a tener en cuenta a la hora de optimizar una URL para conseguir un buen posicionamiento en buscadores ya que los motores de búsqueda hoy en día ya le dan una importancia relevante a este aspecto. El motivo es el mismo, claro y conciso, es más simple una URL amigable que una no amigable y a los motores de búsqueda le gustan las cosas simples.

Por esta razón os dejo un par de consejos a la hora de crear vuestras URLs amigables,

  • Son mejor las URLs cortas que las largas. Intenta no utilizar artículos, preposiciones…
  • Genera una redirección 301 de tus URLs con y sin www
  • Nunca uses signos de puntuación y espacios en blanco
  • Separa las palabras con guiones, por ejemplo, http://www.algunascosas.comseo-on-page
  • No muestres la extensión de los ficheros, en vez de que la url finalice con /fichero.php has que acabe solo con /fichero
  • Intenta crearlas con sentido y que tenga relación con el contenido que vas a mostrar
  • Crea URLs únicas

No dudéis en plantear cualquier duda que tengáis con este tema.

Mejoras en el algoritmo de Google

Google

Algoritmo GoogleAyer, día 27, Google anunció en su blog oficial una serie de 40 mejoras en el algoritmo de Google. Según dicen muchos de los cambios ya se activaron a principios de mes y otros aún están en fase de activación.

Estos nuevos cambios son, individualmente, importantes y ,según Google, harán que los resultados de las búsquedas, con el tiempo, mejoren sustancialmente.

Los cambios de este mes son,

  • Mayor cobertura para las búsquedas relacionadas, denominado «Fuzhou». Esta modificación aporta una nueva fuente de datos para generar la sección de «búsquedas relacionadas» incrementando notablemente el número de resultados de los SERPs.
  • Ajustes en el sistema de categorizar los Sitelinks, denominado «Snippy», forma parte del proyecto «Megasitelinks». Por lo que afirman Google estaba utilizando un sistema de categorización que no funcionaba del todo bien, con esta mejora actualizan el categorizador por lo que los resultados de los SiteLinks son más relevantes.
  • Menor número de duplicados en los Sitelinks, denominado «thnaksgivin», forma parte del proyecto «Megasitelinks». Se ha mejorado el sistema para evitar la duplicidad de los «snippets», ahora se generan snippets más relevantes con el contenido del sitio web y no tanto con la búsqueda realizada.
  • Tamaño uniforme de las miniaturas en la página de resultados.  Se ha ajustado el tamaño de las miniaturas ofreciendo una experiencia de navegación más estable tanto en ordenadores de sobremesa como en móviles o tablets. Los nuevos tamaños de las miniaturas están disponibles para resultados sobre recetas y programas, resultados de libros, noticias…
  • Predicciones más relevantes para Youtube, proyecto «Suggest».Se ha mejorado el rankinf para las predicciones en Youtube ofreciendo más resultados locales. Por ejemplo si buscamos «concierto de bruce springsteen en» desde las Islas Canarias el sistema puede predecir que buscamos «concierto de Bruce Springsteen en Canarias».
  • Detección más precisa de las páginas oficiales, denominado «WRE». Mejora en la identificación en los SERPs de las páginas oficiales.
  • Resultados locales más «frescos», denominado «longdew», forma parte del proyecto «contry-id data refresh». Los SERPs geolocalizados serán de contenido más actualizado.
  • Mayor tamaño del índice de imágenes en las búsquedas universales, denominado «terra», forma parte del proyecto «Images Universal». Se ha ampliado el cuerpo de los resultados de imágenes que se muestran para búsquedas universales, este cambio ayuda a obtener resultados de imágenes más relevantes para un grupo mayor de búsquedas.
  • Cambio menor en la política del algoritmo de autocompletado, proyecto «Suggest». Se ha afinado para el autocompletado los algoritmos para evitar términos ofensivo o inapropiados.
  • Actualización del comando site, denominado «Semicolon», forma parte del proyecto «Dice». Este cambio mejora el ranking para los resultados del comando site:, ofreciendo más resultados y modificando la ordenación.
  • Mejora en la opción de SafeSearch al buscar imágenes, denominado «Michandro», forma parte del proyecto «SafeSearch». Este cambio mejora los sistemas de detección de contenido adulto en la búsqueda de imágenes.
  • Seguimiento de cambio en documentos, proyecto «Intervals». Esta mejora cambia las marcas que se usaban para realizar el seguimiento de los cambios en los documentos ( actualizaciones )
  • Mejora de los sinónimos para idiomas extranjeros, denominado «floating context synonyms, forma parte del proyecto «Synonyms». Este cambio mejora una actualización anterior de este sistema, el resultado es que se mostrarán más a menudo resultados de páginas con sinónimos de los términos buscados.
  • Deshabilitados dos marcadores antiguos, denominado «Mango», forma parte del proyecto «Freshness». Sin más datos, se deshabilitan dos marcadores relacionados con las resultados «frescos».
  • Resultados más organizados para Google Korea. Mejora en los SERPs de Google Kore.
  • Mejora en la ortografía del idioma coreano. Mejoras en las correciones ortográficas de búsquedas en coreano.
  • Imágenes más recientes, denominado «tumeric». Se han ajustado parámetros para conseguir imáges más recientes.
  • Actualización de la barra, del pryecto «Kennedy». Se ha modificado la «barra negra» que aparece en la parte superior. Se añade una nueva barra gris con las notificaciones, un botón para compartir en google plus y las opciones para ver las opciones de nuestro perfil.
  • Se añaden tres nuevos idiomas en la detección de páginas de error, denominado «PNI», forma parte del proyecto «Soft404».  Añadidos los idiomas italianos, portugués y alemán con lo que se identifican mejor las páginas de error.
  • Mejoras en las búsquedas relacionadas con viajes, denominado «nesehorn». Mejorado el algoritmo de búsqueda de vuelos ofreciendo resultados más completos y precisos.
  • Refresco de los datos para las búsquedas relacionadas, denominado «Chicago», forma parte del proyecto «Related Search». Mejora en la calidad de las búsquedas relacionadas, ahora se tiene en cuenta tu historial de búsqueda y la sucesión, por lo que si buscas «chocolate» y después «caramelo» significa, para el motor de búsqueda» que las dos búsquedas están relacionadas.
  • Internacionalización de los rich snippets en Google Shopping, del proyecto «rich snippets». Los «Shopping rich snippets» ayudan a identificar que sitios son más relevantes para la búsqueda realizada, resaltando precios de productos, disponibilidad, comentarios, y clasificación. Esta mejora se ha expandido a nivel mundial.
  • Mejora en los resultados recientes, denominado «iotfreshweb», forma parte del proyecto «Freshness». Se han añadido marcas que ayudan a encontrar contenidos recientes mucho más rápido que en versiones anteriores.
  • Historial de búsqueda para 20 nuevos países. Implementación del historial de búsqueda para 20 nuevos países.
  • Mejora en los snippets de canales de videos. Algunos resultados son enlaces directos a canales con diferentes videos, ya sean en YouTube, mtv.com, etcétera, por lo que se ha añadido la mejora de mostrar snippets para todos esos resultados incluyendo enlaces directos a los videos del canal, con la consiguiente mejora en la calidad de los resultados.
  • Mejoras en el ranking de resultados locales, denominado «Venice». Mejora en la clasificación de los resultados locales tomando como referencia el posicionamiento natural de la web
  • Mejoras en la corrección ortográfica inglesa, denominado «Kamehameha». Mejora la corrección ortográfica del idioma inglés, especialmente para búsquedad raras, no comunes.
  • Mejora en la cobertura de noticias universales, denominado «final destination». Solucionado un error en el que no se mostraban resultados de noticias universales.
  • Mejora en los parámetros para «temas de moda», denominado «news deserving score», forma parte del proyecto «Freshness». Google utiliza una serie de parámetros para determinar si un criterio está «de moda» en un momento dado, esta mejora consigue encontrar este tipo de contenido en tiempo real, sin tener que procesarlo off-line.
  • Mejora en las búsquedas meteorológicas en de Turquía, denominado «hava». Mejores resultados relacionados con la meteorología.
  • Cambio de diseño en la página de configuración de la cuenta.
  • Actualización de Google Panda. Actualización de los datos de Google Panda, haciéndolo más preciso y más sensible a los cambios en los sitios web.
  • Evaluación de enlaces. Se han realizado cambios en la forma de interpretar los enlaces, se ha desactivado un método de análisis utilizado durante años.
  • Actualización del SafeSearch. Actualizada la forma de tratar los contenidos de adultos, haciéndola más exacta y robusta.
  • Actualiación de SPAM. Actualizados los sistema de protección antispam.
  • Resultados locales mejorados. Se ha lanzado una mejora que genera resultados más relevantes para el usuario en función de su ubicación. Google es capaz de detectar más exactamente cuando las consultas y documentos son locales en relación al usuario.

Vaya lista de cambios aunque muchos de ellos no afectan, teóricamente, a la forma de optimizar y promocionar sitios web para conseguir mejores resultados en los SERPs, sí que hay una serie de cambios que sí hay que tener en cuenta,

  • La forma de evaluar los enlaces. Me hace pensar que empieza el baile con los enlaces desde twitter, facebook, linkedin, google plus, urls con un PR alto…
  • La actualización de Panda, como es normal el sistema no está afinado y aún, bajo mi punto de vista, tiene algunas grandes lagunas.
  • Algoritmo de las búsquedas recientes, que permite detectar resultados nuevos, frescos, con mayor rapidez.

Aunque como todo, habrá que darle tiempo al tiempo y ver como van funcionando. Por ejemplo, el blog con la actualización de febrero ha perdido todo el pagerank que tenía y las visitas procedentes de resultados orgánicos también han caído…y no he tocado nada.

Lo dicho hay que darle tiempo y no alarmarse con tantos cambios.

Almacenamiento cloud – Google drive

Google

Parece ser, como no podía ser de otra forma, que Google está a punto de lanzar su servicio de almacenamiento cloud ( cloud storage ), Google Drive. Un servicio que entraría a competir con Dropbox, SkyDrive o iCloud.

Almacenamiento cloud - Google Drive
Google

Hoy en día se está haciendo indespensable tener un sistema de cloud storage ya que el uso de smartphone y tablets se está haciendo cotidiano lo que hace necesario poder almacenar todos esas fotografías, música, documentos, etcétera, ya que estos nuevos dispositivos aún no tienen una capacidad de almacenamiento relativamente grande.

Como explican en The Wall Street Journal Google no quiere dejar de estar presente en estas nuevas funcionalidades que le servirán para conseguir más usuarios y no dejar ningún servicio en el que estar presente.

Ahora solo nos queda esperar para ver el nuevo servicio de Google y ver si realmente será otro proyecto perdido como todos los que ha abandonado en los últimos tiempo o tendrá éxito.

Actualización algoritmo de Google

Google

Ayer Google anunciaba en su blog una nueva actualización de su algoritmo, esta vez afectará a todos los sitios web que coloquen banners publicitarios o cualquier otro contenido  al comienzo de las páginas haciendo que el contenido real se quede relegado a una posición que, en muchos casos por las resoluciones de pantalla, no se verá a no ser que se haga scroll. Según Google esta actualización se ha realizado por la multitud de quejas de los usuarios.

Estos sitios perderán el rank que tienen actualmente, aunque Google afirma que este cambio solo afectará a menos del 1% del total de las búsquedas. Puedes comprobar si tus páginas están dentro del denominado «above-the-fold» con la herramienta de Google, Browser Size, o con cualquiera de estas.

Me pregunto que pasará con todos esos sitios, por ejemplo fotoblogs, que lo único que tienen son imágenes, webs empresariales que prefieren una imagen que ocupe bastante espacio de sus landing pages o de la home, ¿este nuevo cambio hará que pierdan posiciones en el Top10?

¿Habrá que pensar en crear mini-cabeceras para evitar esta penalización?

Google