Mitos e Ideas Equivocadas sobre los Buscadores

Banner capítulo 9 Guía SEO para principiantes

Durante los últimos años han emergido una variedad de ideas equivocadas sobre la forma en que operan los motores de búsqueda. Para los principiantes en SEO, esto causa confusión sobre qué es lo que se necesita para obtener buenos resultados. En esta sección explicaremos las historias reales detrás de esto mitos.

ALTA EN BUSCADORES

En la época del SEO clásico (a finales de 1990), los buscadores tenían formularios para darse de alta, cosa necesaria para el proceso de optimización. Los webmasters y los dueños de sitios web debían etiquetar sus sitios web y páginas con información (a veces incluso debían poner las palabras con las que deseaban posicionarse), y entonces “darlas de alta” en los buscadores, tras lo cual el robot rastrearía e incluiría esos datos en su índex. Por razones obvias (manipulación, dependencia de los proveedores, etc.), esta práctica no era escalable y al final dio paso a los buscadores que se basan únicamente en el rastreo. Desde 2001, darse de alta ya no solo es opcional, sino que es prácticamente inútil. Todos los buscadores se han dado cuenta de que raramente dan de alta las listas de URL, y que la manera de hacerlo ahora es consiguiendo enlaces de otros sitios web, ya que esto expondrá el contenido a los buscadores de forma natural.

Todavía existen formularios para darse de alta (como este de Bing), pero estas son vestigios de un pasado lejano, y no sirven básicamente para nada en el SEO moderno. Si escuchas a algún SEO intentando ofrecerte algún servicio con “alta en buscadores” ¡corre y acude a un SEO de verdad! Incluso si los buscadores usaran dicho servicio de alta para rastrear tu sitio web, sería improbable que tuvieras suficiente valor de enlaces como para estar en sus indexes o posicionarte de forma competitiva para las búsquedas.

conejo google

META TAGS

Érase una vez, en una época parecida a la de las altas en buscadores, los meta tags (concretamente los meta tags de keywords) eran una parte importante en el proceso SEO. Incluías las palabras clave que deseabas usar para posicionar tu sitio web, y cuando los usuarios buscaban una de esas palabras, tu página podía aparecer en los resultados de búsqueda. Este proceso se corrompió totalmente con el spam en muy poco tiempo, y hoy en día, de los buscadores principales, solamente Yahoo! indexa el contenido de los meta tags keywords, pero no para posicionarse, sino únicamente para explorar contenido nuevo.

Es cierto que algunos meta tags, concretamente el tag de título y el meta tag description (de los que ya hablamos anteriormente en esta guía), son de vital importancia para las buenas prácticas SEO. Y es cierto que el meta tag robots es una herramienta importante para controlar el acceso de los robots. Sin embargo, el SEO no se trata solamente de meta tags, o al menos, ahora ya no.

USO EXCESIVO Y DENSIDAD DE PALABRAS CLAVE

¿Alguna vez has visto una página que simplemente luce como spam? Son algo así como:

«El económico Hotel Libertad en Chiclayo es el mejor y más barato hotel en Chiclayo que encontrará. Reserve con el precio más barato en Chiclayo con anticipación en el mejor hotel de la zona antes de que sea demasiado tarde.»

Hay un mito persistente en el SEO que trata sobre el concepto de «keyword density» (densidad de keywords), una fórmula matemática que divide el número de palabras en una página entre el número de veces que se repite una determinada keyword, el cual es usado por los buscadores para determinar relevancia y calcular rankings.

A pesar de ser comprobado como falso muchas veces, este mito tiene piernas. Muchas herramientas de posicionamiento web aún se aferran al concepto de que la densidad de keywords es una métrica importante. No lo es. Ignórale y utiliza tus palabras clave de forma inteligente y teniendo en mente la usabilidad. El valor de mencionar 10 veces más tu palabra clave en tu texto es mucho menor que el de ganar un buen link editorial de una fuente que no te considere un spammer.

LAS BÚSQUEDAS PAGADAS AYUDAN A MEJORAR LOS RESULTADOS ORGÁNICOS

Ponte un casco de papel de aluminio, porque es la hora de la conspiración SEO más común – que subir el costo de tu inversión en anuncios de pago (PPC) mejorará tu posicionamiento en los resultados orgánicos (o de la misma manera, que al reducir el costo puedes provocar una caída en tus rankings). De todas las experiencias que hemos presenciado o escuchado, nunca se ha demostrado, ni ha causado jamás ningún efecto en los resultados orgánicos. Google, Yahoo! y Bing tienen barreras muy efectivas para evitar precisamente este tipo de confusión. En Google, particularmente, los publicistas gastan montones de millones de dólares al mes y se han dado cuenta que ni siquiera ellos pueden obtener alguna clase de preferencia de parte de los equipos de calidad de búsqueda o del equipo anti-spam. Así que mientras tales barreras sigan estando en su lugar y los buscadores mantengan dicha separación, creemos que esto permanecerá como un simple mito.

Dicho esto, hemos visto pruebas anecdóticas que sugieren que pagar vía PPC por keywords para las que ya tienes buenos rankings orgánicos puede ayudar a mejorar tu CTR orgánico.

Criaturas míticas guía SEO

SPAM EN LOS BUSCADORES

Mientras existan búsquedas, existirá el spam. La práctica de spam en los buscadores – crear páginas y trampas diseñadas para inflar los rankings artificialmente o engañar a los algoritmos de posicionamiento usados para clasificar el contenido – ha ido en aumento desde mediados de 1990. Con pagos tan altos (una vez, un compañero SEO nos contó que posicionarse en lo más alto de los resultados de búsqueda de Google para la frase “comprar viagra” daba como mínimo $20.000 de ingresos como afiliado), no nos sorprende que dicha actividad esté tan de moda en la web. Sin embargo, se ha vuelto cada vez más difícil y, en nuestra opinión, cada vez sirve de menos por dos razones.

1. NO VALE LA PENA EL ESFUERZO

Los usuarios odian el spam, y los motores de búsqueda tienen un incentivo financiero para luchar contra el. Muchos creen que la mayor ventaja de Google como producto durante los últimos 10 años ha sido su habilidad para controlar y eliminar el spam mejor que sus competidores. Es sin lugar a dudas algo en lo que todos los buscadores invierten mucho tiempo, esfuerzo y recursos. Aunque el spam aún funciona en ocasiones, generalmente toma más trabajo que simplemente producir «buen contenido», y el pago a largo plazo es practicamente inexistente.

BUSCADORES MÁS INTELIGENTES

Los buscadores han hecho un trabajo encomiable identificando metodologías escalables e inteligentes para luchar contra la manipulación del spam, haciendo que sea mucho más difícil que este impacte sus algoritmos. Conceptos complejos como el TrustRank(desarrollado por Moz), HITS, análisis estadístico, datos históricos y muchos otros han disminuido el efecto del spam y hecho que las técnicas denominadas «white-hat» (aquellas que no violan las guías que brindan los buscadores) sean mucho más atractivas.

Recientemente, la actualización Panda de Google introdujo sofisticados algoritmos de aprendizaje computarizado para combatir el spam y disminuir el valor de las webs en una escala que nunca antes de había observado. Si el trabajo del buscador es entregar resultados de calidad, pues estos han levantado la barra año a año.

Esta guía no esta destinada a mostrar tácticas específicas de spam pero, debido a la gran cantidad de sitios que son penalizados, eliminados o marcados como estos y que se encuentran buscando ayuda, cubriremos varios factores que los motores de búsqueda usan para identificar el spam, y de esta forma evitar que los SEOs se metan en problemas. Para detalles adicionales sobre el spam en buscadores, pueden revisar la Guía de Google para Webmasters o las Preguntas y Respuestas para Webmasters de Bing (PDF).

Lo importante a recordar es esto: técnicas de manipulación no sólo no te ayudan en la mayoría de casos, sino que además pueden ocasionar que los motores de búsqueda impongan penalidades a tu página web.

ANÁLISIS DE SPAM A NIVEL DE PÁGINA

Los buscadores realizan análisis de spam entre las páginas y entre los sitios web (dominios).
En primer lugar veremos cómo evalúan los intentos de manipulación a nivel de URL.

ABUSO DE PALABRAS CLAVE

Una de las técnicas de spam más obvias y tristes es el abuso de palabras clave, el cual implica llenar una página web con muchas palabras clave o frases a fin de que esta parezca más relevante para los buscadores. La idea tras esto – que aumentar el número de veces que se menciona una palabra puede mejorar el ranking de una página – es por lo general falsa. Estudios que han visto miles de los mejores resultados de búsqueda a lo largo de diferentes consultas han comprobado que el número de veces que se repite la palabra clave (o densidad de palabras clave) parece jugar un papel de mínima importancia a la hora de mejorar los rankings, y que en general no tiene apenas correlación con el buen posicionamiento.

Los buscadores tienen formas muy obvias y efectivas para luchar contra esto. Rastrear una página a fin de encontrar abuso de palabras clave no es muy difícil, y los algoritmos de los buscadores están muy bien preparados. Puedes leer más acerca de esta práctica, y la opinión de Google al respecto, en un post del jefe del equipo anti-spam – Un consejo sobre SEO: no abuses de las palabras clave.

MANIPULACIÓN DE ENLACES

Una de las formas más populares de spam web, la adquisición de enlaces manipulados se basa en explotar el valor de los enlaces en el algoritmo de los buscadores para intentar inflar artificialmente estos valores y mejorar la visibilidad. Esta es una de las formas más complicadas de spam que intentan identificar los buscadores pues puede presentarse en muchas formas. Algunas de las variaciones incluyen:

Programas de intercambio de enlaces recíprocos, en donde webs crean páginas de enlaces que apuntan hacia otras, y viceversa, intentando incrementar la popularidad de ambas. Los motores de búsqueda son muy buenos identificando y disminuyendo el valor de este tipo de prácticas pues presentan un patrón muy particular.

Sistemas de enlaces como las «granjas de enlaces» y «redes de enlaces» en donde se construyen sitios falsos o de bajo valor únicamente para servir como fuentes de enlaces que aumenten artificialmente la popularidad. Los buscadores combaten estos mediante diferentes métodos para detectar conexiones como registro de sitios, superposición de enlaces, entre otros.

Los enlaces pagados, en donde las personas buscan obtener mejores rankings comprando enlaces de páginas web dispuestas a colocarlos a cambio de dinero. Esto usualmente evoluciona en grandes redes de compradores y vendedores de links, y aunque los buscadores trabajan duro para detenerlos (Google en particular ha tomado acciones dramáticas), estos persisten en brindar esta clase de valor a compradores y vendedores (ver este post sobre los enlaces de pagopara aprender más sobre esta perspectiva).

Los enlaces de directorios de baja calidad son con frecuencia una fuente usual de manipulación por muchos en el campo del SEO. Un gran número de directorios de pago existen para surtir a este mercado, y se hacen pasar como legítimos con diferentes grados de éxito. Google con frecuencia toma acción contra estas webs eliminando el PageRank de su barra de herramientas (o reduciéndolo dramáticamente), pero no siempre lo hace.

Existen muchas otras técnicas de manipulación de enlaces que los motores de búsqueda han identificado y, en muchos casos, ya han encontrado métodos algorítmicos para reducir su impacto. Con la aparición de nuevos sistemas de spam, los ingenieros continuarán luchando con algoritmos especializados, revisiones hechas directamente por humanos de forma manual, y mediante la recolección de reportes de spam enviados por webmasters y SEOs.

CLOAKING

Una norma que todas las guías de los buscadores tienen en común es mostrar a los buscadores el mismo contenido que ofreces a las personas. Cuando se rompe esta regla, los buscadores lo llaman “cloaking” y toman acciones para evitar que estas páginas se posicionen en sus resultados. El cloaking se puede llevar a cabo de muchas maneras y con diferentes intenciones, tanto buenas como malas. En algunos casos, los buscadores podrían permitir ciertas prácticas que “técnicamente” se consideran como cloaking, debido a que lo hacen por el bien de la experiencia de usuario. Para más información sobre el asunto del cloaking y los niveles de riesgo asociados con las diferentes tácticas e intenciones, véase este post, White Hat Cloaking, de Rand Fishkin.

PÁGINAS «POCO VALOR»

Aunque podrían no considerarse spam técnicamente, todos los buscadores tienen pautas y metodologías para determinar si una página ofrece contenido único y valioso a los usuarios antes de incluirla en los indexes y en los resultados de búsqueda. Los tipos de páginas filtradas más comunes son el contenido afiliado (páginas cuyo material se usa en docenas o cientos de otros sitios web ofreciendo el mismo producto/servicio), contenido duplicado (páginas cuyo contenido es una copia de una página o contenido extremadamente parecido con otra página del índex) y páginas de contenido generado dinámicamente que ofrecen poco ningún valor o texto único (esto suele ocurrir en páginas en las que se describe el mismo producto/servicio para muchas geografías diferentes con poca segmentación de contenido).Los buscadores suelen negarse a incluir estas páginas y usan una variedad de algoritmos de análisis de contenidos y enlaces a fin de detectar e impedir que estás páginas “de poco valor” aparezcan en los resultados de búsqueda.

La actualización Panda de Google del año 2011 realizó las acciones más agresivas vistas, destinadas a reducir el contenido de baja calidad en la web. Google continúa actualizando este proceso.

ANÁLISIS DE SPAM A NIVEL DE DOMINIO

Además de buscar spam en todas las páginas a nivel individual, los buscadores también identifican rasgos y características en dominios raíz o subdominios que pudieran identificar como indicios de spam. Obviamente, excluir dominios enteros es algo muy delicado, pero también es muy práctico en casos en los que se requiere mayor escalabilidad.

PRÁCTICAS DE ENLACE

Al igual que con las páginas individuales, los buscadores pueden monitorear los tipos de enlaces y la cantidad de reseñas hacia los sitios web. Los sitios que estén envueltos en las actividades manipulativas de forma constante o grave podrían ver afectado su tráfico, o incluso ser expulsados del índice del buscador. Puedes leer sobre algunos ejemplos de esto en algunos post de hace algún tiempo – «Widgetbait Gone Wild» o en el más reciente post cubriendo la «penalidad de Google a JC Penney».

Google y dinosaurio

DIGNOS DE CONFIANZA

Los sitios web que se ganan el estatus de confiables suelen ser tratados de forma diferente a los que no lo son. De hecho, muchos profesionales SEO han comentado que existen “dos estándares” a la hora de juzgar sitios web de “grandes marcas” y de alta importancia en comparación a sitios más nuevos e independientes. Para los buscadores, la confianza tiene que ver, principalmente con los enlaces que ha conseguido tu dominio. Por lo tanto, si publicas contenido duplicado y de poca calidad en tu blog personal, y además compras enlaces en directorios con spam, es muy probable que tengas serios problemas de posicionamiento. Pero si publicases ese contenido en una página de Wikipedia e hicieses que esos mismos enlaces con spam apuntaran hacia esa URL, es muy probable que te posicionaras muy alto – así de influyente es la confianza y la autoridad de un dominio.

Una muy buena metodología para que los buscadores consideren un nuevo sitio y analicen sus actividades es afianzar la confianza mediante enlaces. Los buscadores no se fijarán mucho en algunos enlaces sospechosos si tienen cientos de enlaces de mucha calidad y de fuentes editoriales como CNN.com, LII.org, Cornell.edu y otras entidades con una reputación parecida. Ahora bien, si todavía no has conseguido los enlaces de alta calidad, los juicios podrían ser mucho más severos desde el punto de vista algorítmico.

VALOR DEL CONTENIDO

De la misma manera que se juzga el valor de una página según criterios como si el contenido es único o si ofrece una buena experiencia de usuario, también se aplican estos principios a dominios enteros. Sitios web que normalmente ofrecen contenido poco valioso o genuino podrían ser incapaces de posicionarse, incluso si se han realizado las tareas de optimización on y off page correctamente. Los buscadores simplemente no quieren en su índex cientos de copias de sitios web afiliados a Wikipedia o Amazon, y por eso usan métodos tanto manuales como algorítmicos para evitarlo.

Los buscadores con frecuencia evalúan la efectividad de sus propios resultados. Miden cuando los usuarios hacen clic en un resultado, rápidamente selecciona el botón de «atrás» en su navegador, e intentan con otro resultado. Esto indica que el resultado que han brindado no estuvo acorde a la búsqueda del usuario.

No es suficiente obtener rankings sólo para una búsqueda. Una vez ganados tus rankings, debes probarte una y otra vez.

¿CÓMO SABES SI TE HAS PORTADO MAL?

Puede ser difícil saber si tu página tiene una penalidad o si las cosas han cambiado, ya sea en los algoritmos del buscador o en tu propio sitio, que haya afectado negativamente los rankings o la indexación. Antes de asumir que tienes una penalidad, revisa lo siguiente:

Paso 1 descarta

Una vez que hayas descartado los elementos de la lista que se muestra a continuación, sigue el diagrama de flujo que se encuentra más abajo para ver consejos más específicos.

Errores – Puede que algún error haya dificultado o impedido el rastreo.

Cambios – Algunos cambios podrían haber modificado la manera como los buscadores ven tu contenido. (Cambios on-page, cambios en la estructura de enlaces interna, cambios en la ubicación del contenido, etc.)

Similitud – Cuando más de un sitio web comparte un perfil de enlaces entrantes similar, es probable que ambos pierdan posiciones – cuando los buscadores actualizan los algoritmos de clasificación, pueden cambiar el valor de los enlaces, provocando movimientos en el ranking.

Contenido Duplicado – Las webs modernas enfrentan con frecuencia este problema, especialmente cuando se escalan a grandes tamaños. Revisa este post sobre contenido duplicado para identificar los problemas más comunes.

Paso 2 diagrama de flujo

Confirma si tu sitio ha sido penalizado
Aunque este diagrama no funciona en todos los casos, la lógica no suele equivocarse a la hora de identificar las penalizaciones por spam o marcadas erróneamente como spam por los buscadores y diferenciarlas de las caídas en los rankings. Esta página de Google (y su vídeo incrustado) también podrían servirte de ayuda en este tema.

LIBRÁNDOSE DE LAS PENALIZACIONES

Solicitar una reconsideración o reinclusión en los buscadores suele ser una tarea dolorosa y en muchos casos inútil. También es muy probable que nunca recibas una respuesta que te indique qué pasó o por qué. En cualquier caso, es importante saber qué hacer en caso de penalización o prohibición.
Por eso, he aquí nuestra serie de recomendaciones:

Ícono uno
Si no lo has hecho todavía, registra tu sitio web mediante la página de herramientas para webmasters del buscador (GoogleBing). Esto genera algo más de confianza y conexión entre tu sitio web y el equipo de webmasters.

Ícono dos
Asegúrate de revisar a conciencia la información de tus cuentas de herramientas para webmasters, desde páginas que no funcionan hasta errores de rastreo, servidores, pasando por los mensajes de advertencia o alerta de spam. A menudo lo que parece un error de penalización por spam suele ser, en realidad, un error relacionado con la accesibilidad.

Ícono botono 3
Envía tu solicitud de reconsideración/reinclusión a través del centro para webmasters del buscador y no desde el formulario público – una vez más, crear una relación de confianza más estrecha aumenta nuestras posibilidades de recibir alguna respuesta.

Ícono boton 4
Asumir la culpa totalmente es esencial para que te tomen en cuenta. Si eres responsable de spam, confiesa lo que has hecho – los enlaces que has adquirido, cómo los has conseguido, quién te los vendió, etc. Los buscadores, y particularmente Google, quieren detalles, ya que usarán esta información para futuros algoritmos. Si ocultas algo, es muy probable que te vean como alguien con poca honestidad, corrupto, o, sencillamente, incorregible (y no responderán).

Ícono número 5
Elimina/arregla todo lo que puedas. Si has conseguido enlaces de mala calidad, intenta deshacerte de ellos. Si has practicado alguna clase de manipulación en tu sitio web (sobreoptimización de los enlaces internos, abuso de palabras clave, etc.), arréglalo antes de que envíes tu petición.

Ícono número 6
Prepárate para la espera – la respuesta puede llevar semanas, y hasta meses, y la reinclusión, si es que sucede, es un proceso muy, muy largo. Cientos (puede que miles) de sitios web son penalizados cada día, así que imagínate la acumulación que debe de tener el equipo de webmasters.

Ícono número 7
Si posees una gran empresa con una gran marca en internet, la reinclusión puede llevarse a cabo más rápido si abordamos directamente a algún responsable en una conferencia o evento. Los expertos de todos los buscadores participan regularmente en conferencias acerca del mundo de los buscadores SMXSESPubcon, etc.), y el precio de una entrada se compensa fácilmente al ser reincluido más rápido que lo que llevaría enviar una solicitud de la forma habitual.

Ten en cuenta que los buscadores no están obligados ni tienen la responsabilidad de quitarte una penalización. Legalmente (al menos hasta ahora), tienen el derecho de incluir o quitar un sitio/página web por cualquier razón (o sin razón alguna). La inclusión es un privilegio, no un derecho, así que ten cuidado y no uses técnicas de las que no estés totalmente seguro.

volver al capitulo 8

volver al inicio

Ir al capitulo 10