¿Cómo adaptarte al nuevo algoritmo de Google?

¿Cómo adaptarte al nuevo algoritmo de Google?

por

Google obliga a los sitios a adaptarse a sus algoritmos para mantenerse bien alto en los resultados de búsqueda. Puede ser arbitrario, pero en esta nota discutimos el propósito que hay detrás.

El buscador de Google, sin duda su producto más emblemático, es como una orquesta que quiere jugarle una mala pasada al público y cambia el compás cada cierto rato. Empieza con una samba, de pronto cambia a un tango y un minuto después una polka. Cuando todos están saltando como cosacos pasa a un vals.

La orquesta explica, cada cierto tiempo, que lo hace para separar la paja del trigo, para ver quienes están bailando de verdad y quienes sólo pretenden estar bailando (siempre hay de esos en cada fiesta). Lo malo es que inevitablemente pagan justos por pecadores, y mientras algunos troncos pasan desapercibidos, otros son apartados del baile no por falta de talento sino por mala suerte. Esos son los que caen en el Ginfierno.

En los últimos años Google ha cambiado de manera radical la metodología de posicionamiento de los resultados. Cuando empezaron su revolución de los motores de búsqueda hace unos años, se diferenciaron del resto de los motores de búsqueda gracias a un desconocido sistema que terminó llamándose pagerank. Con eso lograron deshacerse de cientos de miles de sitios que engañaban a los buscadores simplemente llenando de metaetiquetas engañosas, y enfocarse en los que eran más linkeados desde otros sitios. Cuando algunos empezaron a intercambiar links para engañar al buscador, cambiaron el ritmo y penalizaron esos intercambios, detectándolo en varios niveles para evitar también triangulaciones y arreglos más elaborados. En el fondo lograron calibrar el buscador año tras año para mantener siempre la máxima “content is king”. Los sitios con contenido de alta renovación, relevancia y originalidad era premiados.

Usinas de Contenido

Hace un tiempo Matt Cutts, el gurú de Google que timonea la dirección de las políticas de posicionamiento del buscador, dijo que estaban conscientes de que nuevamente los spammers se estaban tomando los resultados de búsqueda. La técnica no es nueva y venimos lidiando con ella desde hace años. Venden herramientas de software que roban contenido de otros sitios. Sólo necesitas comprar un dominio y pagar un hosting.

Haces 30 subdominios temáticos. Instalas WordPress que ahora soporta multisitios. Instalas un plugin pagado que te permite decirle de qué sitios debe robar el contenido en cada subdominio. Incluso puedes configurar si añades la fuente para que parezca legítimo, y si el sitio en cuestión tiene habilitado RSS en realidad no estás robando, sólo “sindicando”. Al final del día, sin haber escrito ni un miserable artículo en tu vida, de pronto tienes 30 sitios y en cada uno 50 artículos diarios. Una inversión inicial de un par de cientos de dólares y un costo mensual de USD 20 y listo. Content Factory o Content Mill se llama eso. Content Scraping le llaman a la práctica de rasguñar el contenido ajeno.

La mayor parte de los sitios de donde estés robando no te va a perseguir ni menos demandar.  A lo más te va a llegar un correo de queja que no responderás. Si el encargado del contenido de los sitios que rasguñas vive tan ocupado como yo, el único castigo que recibirás será marcar tu dominio en la lista negra de los comentarios para que no aparezcas en los pingbacks, pero la verdad es que tenemos mucho que hacer 24/7 como para preocuparnos de 20 o 30 sitios que de alguna manera nos están halagando, con su propia e inescrupulosa manera de validarnos como fuente de noticias.

Hasta hace poco, esos sitios se beneficiaban de la llamada “long tail”. Con bajo pagerank pero mucho contenido aglomerado, no lideran ninguna query de búsqueda pero aparecen en la página 9 de un millón de términos. En algunos casos podían incluso rankear mejor que algunos de los sitios de los cuales profitaban. El problema llegó a ser tan grande en Stack Overflow que  escribieron una extensión para Google Chrome que los redirigiera a Stack Overflow si acaso visitaban un artículo copiado de ahí.

Con mayor o menor dosis de éxito, algo de tráfico les llega, o en otro caso no se molestarían en armar esos 30 sitios. Dado que sí les funciona, el motivo final es que en esos 30 sitios tienen publicidad de Adsense u otra red de avisos, y luego de un tiempo el tráfico marginal crece hasta que se autofinancian y empiezan a tener ganancias. Si lo manejas activa y efectivamente puedes terminar ganando dinero. Si lo tuyo no es el contenido pero te gusta programar, tal vez encuentres la manera de hacer un producto original con todo el contenido robado. Por ejemplo ordenarnos no por fecha sino por votación popular, y difundirlo mediante spam hasta que los mismos dueños del contenido que robaste te manden gente para obtener votos. Felicitaciones, eres el nuevo Digg. O, mejor dicho, lo eras.

No me creo que Google sea una red de filantropía ni que sea la encarnación del mal. Lo que sí creo es que, si yo fuera dueño de Google me sentiría estafado si mi buscador le mandara tráfico a sitios que sin mover ni un dedo se vuelven rentables usando mi red de avisos. Es cierto que Google saca una tajada incluso de esa bicicleta, pero ya puestos, la tajada restante hoy la están regalando a gente con más astucia que dedicación, y al parecer se cansaron de permitirlo. Google cambió el algoritmo para deshacerse de estas usinas de contenido ajeno.

SEO de sombrero blanco

Todos los que tenemos un sitio web, grande o pequeño, tenemos una cierta noción de la importancia de Google para mandarnos tráfico. Hablamos de SEO (Search Engine Optimization) y SERP (Search Engine Result Positioning) y conocemos los tips más comunes para mejorar en esos aspectos:

  • Mantenerte publicando contenido frecuentemente, y que sea relevante, original y completo
  • Conseguir que linkeen a ese artículo
  • Ponerle a ese y a todos los artículos metadatos relevantes que lo diferencien del resto de tu sitio
  • Simplificar el html y css, ojalá procurar que el sitio valide W3C
  • Mantener al mínimo los links a sitios externos
  • Evitar el uso de flash para lo que no sea multimedia
  • Hacer sitemaps y enviarlos a los buscadores
  • Linkear a contenido relacionado dentro de tu propio sitio, ojalá usando frases relevantes como anchor en vez de “click acá”.
  • Mantener links canónicos cuando más de una URL muestre el mismo contenido
  • Usar robots.txt para evitar que se indexen secciones irrelevantes o redundantes
  • No dar por sentado que todos usan navegadores que soportan flash, javascript, css o imagenes. Pensar tu sitio para que incluso lynx pueda navegarlo.
  • Optimizar el tiempo de carga de tus sitios
  • Evitar errores como páginas no encontradas, timeouts, caídas, etc

Hay más tips, y después de nombrar estos dos últimos me podrán decir -con mucha razón- que el discurso es inconsecuente con el caso Betazeta. Ok, touché. Estoy perfectamente consciente de que la estabilidad y fluidez de nuestros sitios no es óptima o, mejor dicho, es pésima. Estamos trabajando para solucionar eso y, de paso, les recuerdo que los mejores DT de la historia no necesariamente fueron buenos futbolistas. Que no pueda poner en práctica el 100% de lo que dice este artículo no significa que no lo sepa.

Tal como hay una lista de tips para mejorar tu posicionamiento en buscadores por las buenas, hay maneras de hacerlo por las malas. Engañar a Google. SEO de sombrero negro. Igual que los magos de D&D, igual que los jedis y los sith, hay buenos y malos en este negocio. Los malos opinan que la tasa de esfuerzo/beneficio es mejor haciendo trampa, pero necesitan cambiar la metodología cuando los buscadores se las arreglan para distinguirlos. Los buenos (me gusta considerarme bueno) preferimos el trabajo de la hormiguita porque es coherente a lo largo del tiempo y después de 7 años escribiendo, el primer artículo que escribiste sigue apareciendo en algunas búsquedas.

Mantener un sitio estrictamente con técnicas SEO de sombrero blanco no siempre resulta. Hay sitios que simplemente no prenden y lo hemos comprobado con algunos proyectos. Otros demoran más, otros requieren más valor agregado, como la promoción en redes sociales y la recomendación persona a persona. Viralizar algunos contenidos emblemáticos, convencer a alguien famoso de que postee en tu blog, armar una polémica galleteada, provocar a tu competencia de manera que una guerra de flames se desarrolle en tu sitio. Eso vendría a ser “Red Hat SEO” en D&D, pero da igual. Lo importante es que hay un abanico de cosas que puedes hacer para que tu sitio web sea exitoso y algunas de ellas funcionan mejor que otras en Google, un efecto que se ve amplificado porque los cambios de algoritmo implican que lo que funciona hoy puede no funcionar mañana.

El nuevo algoritmo y sus consecuencias

Google no dice cómo funciona exactamente el algoritmo por dos razones obvias. Primero, para que no se lo copien y nazcan otros Googles, y segundo para que no sea evidente cómo explotar los defectos del sistema.

Sabemos que desde hace un par de días, los molinos de contenido están recibiendo menos tráfico. Según Matt Cutts, en realidad el efecto real no modifica más allá de un 2% de los resultados de búsqueda, por lo que no debira notarse a simple vista a menos que seas de esos que navegan hasta la página 25 de los resultados.

Lo llamativo del caso es que Matt Cutts parece tener una impresión distinta que un centenar de webmasters que están resintiendo duramente el cambio y lo comentan en Webmasterworld. Me llamó la atención la historia de un tipo cuyo sitio de juegos experimentó un bajón muy brusco. Tenían guías sobre ciertos juegos que eran fruto de cientos de horas jugando y terminando los juegos de mil maneras distintas. Tenían miles de links entrantes y hasta algunos fabricantes los linkeaban por la calidad de sus guías (o eso es lo que él dice). Desde esta semana, ya no rankean dentro de los primeros resultados. A cambio, pasaron a la tercera página mientras que el top 5 son artículos de Wikipedia, eHow, Hubpages, Yahoo Answers y otros macrositios.

Si Matt Cutts nos dice que cambiaron el sistema para quitar a los ladrones de contenido, yo lo celebro. Pero si alguien sale a decir que en realidad no está funcionando como se esperaba, entonces me empiezo a preocupar. ¿Cuán extensivamente se habrá probado el nuevo algoritmo? ¿Terminará pegándole a CHW o beneficiándolo? A decir verdad no estamos seguros, pero sí sabemos cómo adaptarse al nuevo algoritmo: si se ha estado haciendo las cosas honradamente y con un propósito legítimo, entonces hay que mantener el rumbo. A lo mejor habrá que modificar algunas cosas e implementar lo nuevo de HTML5 y CSS3 para mejorar lo que se tiene. A lo mejor habrá que dejar de hacer algo que hoy es válido como estrategia de promoción y mañana será perjudicial (por ejemplo la interacción con Facebook).

Es un gran signo de interrogación, pero como les dije antes hemos optado por el SEO de sombrero blanco porque cuando Google cambia el algoritmo no tenemos que modificar todo. Nuestro contenido sigue siendo original y aunque cada vez que cambiamos de CMS quedan cientos de links rotos y miniaturas desaparecidas, si Google hace lo que dice que hace entonces debiera seguirnos teniendo en cuenta. Con altibajos propios del negocio, al final sigue siendo cierto que “Content is King”.