Herramientas y Servicios que ofrecen los Buscadores

banner-capitulo8

Los profesionales del posicionamiento web tienen a usar muchas herramientas. Algunas de las más útiles son provistas por los propios buscadores. Los motores de búsqueda quieren que los webmasters creen sitios y contenido accesible, por lo que brindan una variedad de herramientas, datos analíticos y ayuda. Estos recursos gratuitos brindan datos y oportunidades para intercambiar información con los buscadores que no se brindan en ninguna otra parte.

Abajo explicamos los elementos comunes que cada uno de los principales motores de búsqueda apoyan, y explicamos su utilidad.

PROTOCOLOS COMUNES DE LOS BUSCADORES

1. SITEMAPS

Piensa en los sitemaps o mapas de sitio como en una lista de archivos que brindan pistas a los buscadores sobre cómo deben rastrear tu sitio. Los sitemaps ayudan a los motores de búsqueda a encontrar y clasificar contenido en tu web que podrían no haber encontrado por si mismos. Los sitemaps se presentan también en una variedad de formatos, y pueden destacar diferentes tipos de contenidos, entre videos, imágenes, noticias y contenido para móviles.

Puedes ver los detalles completos de este protocolo en Sitemaps.org. Además, puedes construir tu propio sitemap en XML-Sitemaps.com. Los sitemaps se presentan en 3 variedades:

XML

Lenguaje de Marcado Extensible (formato recomendado)

PRO: Es el formato más aceptado para los sitemaps. Es increíblemente fácil de analizar para los buscadores y se puede hacer con una multitud de generadores de sitemaps. Además, permite controlar la totalidad de los parámetros de página.

CONTRA: Archivos relativamente grandes. Debido a que el XML necesita un tag de apertura y otro de cierre para cada uno de los elementos, el tamaño de los archivos puede llegar a ser bastante grande.

sitemap

RSS

Sindicación Realmente Simple o Resumen Óptimo del Sitio

PRO: Fácil de mantener. Los sitemaps RSS pueden ser codificados para actualizarse automáticamente cuando se añade contenido nuevo.

CONTRA: Más difícil de usar. Aunque el RSS es un dialecto del XML, es en realidad mucho más difícil de usar debido a sus propiedades de actualización.

TXT

Archivo de Texto

PRO: Increíblemente fácil. El formato del sitemap es una URL por línea hasta 50.000 líneas.

CONTRA: No puede añadir meta datos a las páginas.

ROBOTS.TXT

El archivo robots.txt (producto del Protocolo de Exclusión de Robots) debería guardarse en el directorio raíz del sitio web (p.ej. www.google.com/robots.txt). El archivo sirve como guía de acceso a los visitantes autómatas (los robots de los buscadores).

Usando robots.txt, los webmasters pueden indicar qué áreas del sitio les gustaría que los robots no rastrearan así como indicar la localización de los archivos de sitemaps (explicados abajo) y los parámetros de la duración de rastreo. Puedes leer más detalles al respecto en la página del Centro de Conocimiento de robots.txt.

Existen los siguientes comandos:

Disallow
No permite que los robots recopiladores accedan a ciertas páginas o carpetas

Sitemap
Indica la ubicación del mapa o mapas del sitio web

Crawl Delay
Indica la velocidad (en milisegundos) a la que el robot puede rastrear un servidor.

Ejemplo de un archivo robots.txt

robotstxt

Advertencia: es muy importante saber que no todos los robots reconocen el archivo robots.txt. Algunas personas con malas intenciones (p.ej. ladrones de direcciones de correo electrónico) crean bots que no siguen este protocolo y en casos extremos pueden usarlo para ubicar el contenido de información privada. Por esta razón, es recomendable que no se incluya en robots.txt la ubicación de las secciones de administración y otras secciones privadas de sitios web accesibles al público. En su lugar, estas páginas pueden utilizar el meta tag robots (explicado más adelante) para evitar que los principales buscadores indexen contenido de alto riesgo.

disallow-robot

META ROBOTS

El meta tag robots crea instrucciones a nivel de página para los robots de los buscadores.
El meta tag robots debería incluirse en la sección de encabezamiento (head) del documento HTML.

metarobots

En el ejemplo superior, “NOINDEX, NOFOLLOW” le indica a los robots que no incluyan dicha página en sus índices, y que además no sigan ninguno de los enlaces que aparece en la misma.

robots-meta-tag

barranco

REL=”NOFOLLOW”

¿Recuerdas que los enlaces actúan como votos? El atributo rel=”nofollow” te permite enlazar a un recurso, almismo tiempo eliminando tu “voto” en cuanto al posicionamiento se refiere. Literalmente, “nofollow” le dice a los buscadores que no sigan el enlace, aunque algunos motores los siguen de todos modos para descubrir nuevas páginas. Estos enlaces de seguro pasan menos valor (o ningún valor) que los enlaces sin el atributo, pero existen muchas situaciones en los que son útiles, como cuando se enlaza a una web poco confiable.

nofollow

En el ejemplo superior, el valor del enlace no se pasará a ejemplo.com ya que se ha agregado el atributo rel=nofollow
REL=”CANONICAL”

Con frecuencia, dos o más copias de exactamente el mismo contenido aparecen en tu página web bajo URLs diferentes. Por ejemplo, las siguientes URLs pueden todas referirse a la misma página inicial de un sitio:

– http://www.ejemplo.com/
– http://www.ejemplo.com/default.asp
– http://ejemplo.com/
– http://ejemplo.com/default.asp
– http://Ejemplo.com/Default.asp

Para los buscadores, estas son 5 páginas distintas. Dado que el contenido en cada una es idéntico, esto puede causar que los buscadores disminuyan el valor del contenido, así como su capacidad de obtener rankings.

El tag canonical resuelve este problema indicándole a los robots de búsquedas que página es la principal entre todas estas versiones, la que debería contar en los resultados de búsqueda.

rel-canonical

En el ejemplo superior, rel=canonical le indica a los robots que esta página es una copia de http://www.ejemplo.com, y que debe considerarse esta última URL como la URL canónica.

HERRAMIENTAS DE LOS BUSCADORES

HERRAMIENTAS PARA WEBMASTERS DE GOOGLE – CARACTERÍSTICAS POPULARES

Herramientas para Webmasters de Google

CONFIGURACIÓN DEL SITIO

Orientación Geográfica – Si una web esta orientada a usuarios en una ubicación geográfica en particular, los webmasters pueden brindar a Google información que le ayudará a determinar la forma en que dicha web aparece en los resultados de búsqueda de un determinado país, así como mejorar los resultados de Google para búsquedas geográficas.

Dominio Preferido – El dominio preferido es aquel que los webmasters prefieren usar para que se indexen las páginas de su sitio. Si un webmaster especifica su página preferida como http://www.ejemplo.com y Google encuentra un enlace a dicho sitio con el formato http://ejemplo.com, entonces Google tratará dicho enlace como si estuviera apuntando a http://www.ejemplo.com.

Parámetros de URL – Puedes brindar a Google información sobre cada parámetro de tu web, como “ordenar=precio” y “idsesion=2”. Esto ayuda a Google a rastrear tu sitio de forma más eficiente. ignorando parámetros que producen contenido duplicado e incrementando el número de páginas únicas que Google rastreará en tu sitio.

Frecuencia de RastreoLa frecuencia de rastreo afecta la velocidad de las solicitudes del bot de Google durante el proceso de rastreo. No tiene efecto alguno en la forma como Google rastrea una web en particular. Google determina la frecuencia recomendada de acuerdo al número de páginas del sitio.

DIAGNÓSTICO

Software malintencionado – Google te informará si ha encontrado software malintencionado en tu web. El malware no solo es malo para los usuarios, sino que también representa un efecto negativo en tus rankings.

Errores de rastreo – Si el bot de Google encuentra una cantidad significativa de errores mientras rastrea tu web, como los errores 404, los reportará e identificará en dónde encontró el enlace que lo llevó a la URL inaccesible.

Sugerencias de HTML – Este análisis identifica elementos HTML que no son amigables con los buscadores. Específicamente, aquí se listan problemas con las meta descripciones, títulos y contenido no indexable.

gwt

TRÁFICO DE BÚSQUEDA

Estas estadísticas ofrecen indicadores útiles para los SEOs, ya que reportan las impresiones por keywords, rangos de clics, las páginas más populares en los resultados de búsqueda, y estadísticas de enlaces. De todas formas hay que tener cuidado, pues muchos SEOs reportan que los datos que se brindan en esta sección son incompletos y que sólo ofrece datos estimados.

RASTREO

Esta importante sección te permite enviar sitemaps, probar archivos robots.txt, mejorar sitelinks, y enviar solicitudes de eliminación de URLs al índice de Google.

LABS

La sección Labs de las Herramientas para Webmasters de Google contiene reportes que Google considera en estado experimental, pero que aún así pueden ser importantes para los webmasters.

bing1

CENTRO PARA WEBMASTERS DE BING

Centro para Webmasters de Bing

PRINCIPALES CARACTERÍSTICAS

Resumen de sitios – Esta interfaz brinda un resumen del rendimiento de todas tus webs en los resultados de búsqueda de Bing. Las métricas que incluye son clics, impresiones, páginas indexadas y número de páginas rastreadas por cada sitio.

Estado de rastreo – Aquí puedes ver reportes de cuantas páginas de tu sitio ha rastreado Bing, y cuantos errores ha descubierto. Al igual que en las herramientas de Google, puedes enviar sitemaps para ayudar a Bing a descubrir y priorizar tu contenido.

Indexación – Esta sección permite al webmaster ver y ayudar a controlar la forma en que Bing indexa las páginas. Al igual que en Google Webmaster Tools, aquí puedes explorar cómo se encuentra organizado tu contenido en Bing, enviar URLs, eliminar URLs de los resultados de búsqueda, analizar los enlaces entrantes y ajustar la configuración de parámetros.

Tráfico – El resumen de tráfico en Bing reporta las impresiones y clics mediante una combinación de resultados de Bing y Yahoo. Los reportes aquí muestran posiciones promedio así como estimados de costos en caso decidas comprar anuncios para dichas keywords.

Aunque no forma parte de ningún buscador, el servicio Open Site Explorer de Moz brinda datos similares.

CARACTERÍSTICAS

Identificar enlaces de alto valor – Open Site Explorer organiza todos tus enlaces entrantes de acuerdo a sus métricas, las cuales te ayudan a determinar cuáles enlaces son los más importantes.

Encuentra los dominios más fuertes enlazándote – Esta herramienta te muestra los dominios de mayor valor que enlazan a tu dominio.

Analizar la distribución de los textos ancla – Open Site Explorer te muestra la distribución de los textos que usan las personas para enlazarte.

Comparación cara a cara – Esta característica te permite comparar dos webs para ver cuál tiene mayor valor.

Métricas Sociales – Mide las veces que se comparten tus contenidos en Facebook, los Me Gusta, los tweets, +1’s para cualquier URL.

open-site-explorer

Los motores de búsqueda recientemente han empezado a brindar mejores herramientas para ayudar a los webmasters a mejorar sus resultados de búsqueda. Este es un paso enorme para el posicionamiento web y las relaciones entre los buscadores y los webmasters. Dicho esto, los buscadores sólo pueden llegar hasta dicho punto para ayudar a los webmasters. En la actualidad es cierto ahora y probablemente será aún más cierto en el futuro, que la responsabilidad del SEO va directamente para el encargado de marketing online y el webmaster de la web. Es por esta razón que aprender SEO por tu cuenta es importante.

capitulo7-atras

al-inicio

capitulo9