Como minimizar el impacto del Google Panda Update

¿Que es el Google Panda Update?

Google Panda UpdateLo primero a  saber es ¿qué es el “Panda Update”?, básicamente lo que hicieron fue quitar fuerza a los sitios que generan  casi todo su contenido mediante los usuarios (user generated content), que tienen un volumen muy alto de publicidad (publicidad > contenido), que tienen muchos enlaces (enlaces > contenido) y/o que generan contenidos mediante snippets, en donde dependiendo de la páginas, se cambian unas cuantas palabras (se suele usar mucho en sector de viajes).

Hay varias formas de minimizar el impacto de esto y aquí lo que se ha venido comentando últimamente en congresos, blogs y otro medios:

Bloqueo de contenido de baja calidad:

Matt Cutts dijo que una gran cantidad de contenido de baja calidad en un sitio, puede penalizar la capacidad de rankear de todo un sitio, por esto se pensó en cómo hacer que el contenido que es de baja calidad en un sitio, no afectara al resto.

Hay algunas opciones como eliminar del sitio el contenido considerado como de baja calidad, pero eso disminuye el tamaño del site en volumen de contenidos y puede ser dañino. Por esto al parecer lo más aceptado dentro del sector es hacer uso del meta robots y ponerlo como “noindex,follow” para que una vez que el contenido sea suficientemente relevante (por ejemplo un post de 2 o 3 líneas que inicialmente no tiene peso suficiente, pero que tras varios comentarios de usuario tendrá la densidad suficiente para considerarse relevante) se modifique la etiqueta a “index,follow”.

Los ejemplos que se mencionan son:

  • Un directorio de empresas en donde tienen miles de páginas con una descripción normalmente de no más de 200 caracteres, pero en el que los usuarios pueden comentar. Al inicio no tiene densidad suficiente, pero con un cierto número de comentarios esto cambia.
  • Un sitio dedicado a preguntas y respuestas, en donde las preguntas inicialmente no tienen densidad y después de varias respuestas de los usuarios esto cambia.

Según comentan desde Google, es preferible usar el meta robots sobre la exclusión mediante el robots.txt porque esto da la posibilidad a los robots de saber que el contenido existe aunque aún no lo deba de indexar, para que después estas páginas se indexen con mayor rapidez.

Aunque también se destaca que para sitios con un volumen de páginas muy alto, el uso de robots.txt es muy útil para limitar la indexación de las páginas sin contenido, y dar el peso a las que en verdad tienen un contenido de alta calidad.

Ratio de contenido vs. Publicidad:

Como he mencionado antes, un factor para saber si un contenido es de baja calidad, es cuando hay mucha más publicidad/enlaces que contenido, por ejemplo las páginas de China o Tailandia suelen tener este formato, porque los usuarios están acostumbrados a esto (ver www.siamza.com/tv/).

Matt Cutts dice que aunque no es una regla, este tipo de páginas suelen tener problemas, pero esto se puede solucionar, claro añadiendo más contenido, pero aun así independiente de esto, las páginas que tienen mucha publicidad en el primer bloque de contenido, suelen ser una mala experiencia para los usuarios ya que resulta complicado encontrar el contenido real y suelen tardar mucho más tiempo en cargar por la gran cantidad de peticiones de recursos externos.

Rastreo lento del site:

Matt Cutts dice que si el sitio no es de utilidad para un usuario, el robot baja su periocidad de rastreo al sitio. Se ha mencionado también que una técnica para determinar cada cuanto está rastreando un contenido en específico, es ir a tus logs y ver que contenidos están siendo rastreados con mayor frecuencia por parte del robot de Google. Con este dato te puedes hacer una idea de cuánto tiempo tomaría para que un cambio a positivo se vea reflejado en el motor de búsqueda. Por ejemplo si el tiempo medio de rastreo de una página es de 30 días, no puedes esperar mejoría en 10 días (suena obvio pero la gente se suele desesperar).

Réplica del cambio en el algoritmo en el resto del mundo:

En un articulo de 12 de Marzo de 2011, Matt Cutts decía que esto ya está activo en USA y que en el resto de países esto podría ser visible en semanas el día 11 de Abril se ha replicado esto a todos los sitios en donde Google indexa en el idioma inglés, a la fecha no hay noticias de que en España ya se haya activado.

Matt Cutts Twitter Panda Update

Más cambios por venir:

Matt Cutts dice que este mismo año habrán mas cambios significativos, uno de ellos va en consonancia con pruebas que están haciendo en donde se está intentando dar más autoridad a las fuentes de origen, es decir que aunque un sitio pequeño publique algo interesante y después se re-publique en un sitio grande, normalmente el que rankea por ese contenido suele ser el sitio de mayor autoridad, pero el contenido original no les pertenece. Por esto están probando a reemplazar contenidos de este tipo por los de la fuente original.

De igual forma seguirán intentando eliminar contenidos que se obtienen automáticamente mediante robots “scrapers”, esto por ejemplo es muy común en sitio de whois en donde además de los datos del dominio, cogen partes del sitio o hasta los duplican para tenerlo en su servidor y servir la información sin hacer peticiones externas.

Respecto a lo anteriormente expuesto, un estudio de hizo Bruce Clay, arrojo que la mayoría de los sitios que en USA han tenido caídas considerables de rankings, debido a que la mayoría de sus páginas tienen una densidad casi idéntica dentro del sitio. Esto no significa que se tenga que ir al sitio y cambiar la densidad de todas las páginas pero si hacer el contenido de utilidad para el usuario. Por poner un ejemplo si van al sitio eInforma.com van a ver que miles de páginas del sitio tienen snippets con las misma densidad y por esto las páginas son casi idénticas de cara a los robots, problema actual: nivel de indexación muy bajo, tiene cerca de 1 millón de páginas indexadas y de ellas solo un 15% aproximadamente tienen capacidad de rankear en Google.es.

White Hat y Black Hat Cloaking:

Se habla cada vez más del uso de esta técnica, por ejemplo cuando un site en flash presenta una versión en HTML a los robots o cuando se muestra a los robots las páginas sin publicidad (para evitar gastos de sobre-impresiones).

Cloaking para mostrar URLs limpias a los robots: básicamente es que a los robots les enseñes URLs libres de parámetros e IDs de sesión. En teoría esto no era malo, pero al parecer a Matt Cutts no le gusta y para evitarlo se plantea el uso del rel=”canonical” o la eliminación de parámetros desde Google Webmaster Central.

Aunque algunos dicen que Google lo acepta, Matt Cutts dice que no, que no son buenas prácticas y aquí se explica lo más común y alternativas:

Programa: primer clic gratis:

Suele ser usado para páginas que tienen contenido de pago, puedes optar con Google a que el primer clic hacia este contenido sea gratuito, es decir que se muestra al usuario, pero el siguiente clic ya llega a una sección para registrarse. Esto permite que el robot navegue todas las páginas del sitio pero un usuario no, ayudando a aumentar los niveles de indexación.

Para entender más sobre este programa, se pueden encontrar sus características aquí: http://www.google.com/support/webmasters/bin/answer.py?hl=es&answer=74536

Esconder texto por accesibilidad:

Esto es muy común cuando queremos por ejemplo que nuestro slogan (claim) tengan un estilo muy moderno y las fuentes aceptadas para HTML no son nada agradables en este sentido. Lo que se suele hacer es poner el texto e indentarlo hacia un lado con por ejemplo -999px, por esto el texto en el HTML esta pero el usuario no lo ve y en su lugar hay una imagen con el texto en tipografía moderna o solo un logotipo.

Su recomendación es hacer uso de Google Web Fonts (hay algunas que están chulas) o usar lo que se denomina Font Face que básicamente es lo mismo pero en este caso tú mismo crear tu fuente y la alojas en tu servidor (la implementación es compleja). Pueden ver el uso de Google Web Fonts los títulos de los posts de este mismo blog.

Enseñar un contenido para visitantes nuevos y otro para visitantes recurrentes:

Yo en esto no había pensado pero lo veo bastante bien para objetivos de marketing, normalmente se hace vía cookie y como saben el robot de Google no acepta cookies, pero dicen que mientras un usuario nuevo y el robot ven lo mismo, por Google no hay problema.

Conclusiones:

Básicamente todo esto nos lleva a replantear nuestras estrategias como consultores/agencias/clientes de cara a no solo la creación de nuevos sitios y/o contenidos, sino también de cara a prevenir, ahora que esto no se ha replicado en el idioma español, que esta actualización pueda afectarnos como lo ha hecho a grandes empresas en USA o Reino Unido.

En esta lista se pueden ver cuales han sido algunas de las webs que se han visto beneficiadas y perjudicadas con este Google Panda update.

Ganadores del Google Panda Update

ebay.co.uk 42.06%
techcrunch.com 40.72%
national-lottery.co.uk 39.50%
econsultancy.com 37.09%
thisismoney.co.uk 30.13%
siteslike.com 25.37%
mirror.co.uk 24.87%
blogspot.com 22.80%
mashable.com 22.61%
itv.com 22.38%
metro.co.uk 21.60%
independent.co.uk 21.53%
mozilla.org 19.44%
youtube.com 18.93%
vimeo.com 18.85%
wordpress.com 18.62%
laterooms.com 18.25%
dailymotion.com 17.80%
soundcloud.com 17.45%

 

Perdedores del Google Panda Update

 

moneypage.com -99,94%
pricedash.com -99,77%
njobs.org.uk -99,70%
voucherstar.co.uk -99,67%
osoyou.com -99,64%
zath.co.uk -99,60%
shoppingvouchers.co.uk -99,55%
discountshoppinguk.co.uk -99,26%
just-food.com -99,25%
webdevelopersnotes.com -98,94%
netvouchercodes.co.uk -98,73%
pocket-lint.com -98,72%
killerstartups.com -98,35%
wakoopa.com -98,13%
aceshowbiz.com -98,04%
everydaysale.co.uk -97,83%
hotfrog.co.uk -97,49%
phonesreview.co.uk -97,41%
electricpig.co.uk -97,24%
kgbanswers.co.uk -96,79%
biznut.co.uk -96,74%
shopsafe.co.uk -96,71%
themecraft.net -96,59%
cylex-uk.co.uk -96,46%
whosdatedwho.com -96,17%
itproportal.com -96,17%
autopartstrader.co.uk -96,16%
screenrush.co.uk -96,09%
techworld.com -95,99%
qype.co.uk -95,81%
wikio.com -95,79%
couponsnapshot.co.uk -95,55%
airfaresflights.co.uk -95,44%
suite101.com -95,39%
techeye.net -95,16%
computerweekly.com -95,09%
justtheflight.co.uk -95,08%
associatedcontent.com -94,93%

Fuente: Searchengineland.com

Comentarios