Google recomienda eo el sitemap (por ejemplo en formato xml) para
hacer un mejor rastreo de la informaciónque compone nuestros sitios web. Esto teóricamente les facilita bastante la vida por el hecho de que “guía” a sus
arañas o bien robotsrastreadores hasta el contenido relevante en un tiempo más reducido que si únicamente prosiguiesen links o si tuviesen que determinar de forma autónoma qué contenido no debe ser indexado. Hasta aquí todo bien.
En la práctica la verdad es que
no es extraño encontrarse con Google saltándose a la torera el contenido de un archivo robots.txt, indexando páginas y archivos en él contenidos, del mismo modo que son ignoradas de forma casi azarosa las metaetiquetas robots que incluimos en el código de nuestras páginas. No siempre, pero más de forma frecuente de lo que debería (que debería ser “nunca”). Dicho esto, habrá que conformarse con las herramientas que tenemos y aprender a manejarlas mejor.
Y es que a veces
se configura incorrectamente el archivo robotsporque damos por supuestas ciertas cosas, aguardamos que con este artículo se aclaren determinados conceptos importantes que a menudo afectan al tratamiento que Google hace de nuestros sitios. Empezaremos por lo más sencillo…
El renombrado “robots” es un archivo en formato .TXT que
podemos crear y editar con un simple bloc de notas o editor de textobásico (wordpad, notepad). Una vez creado habrá que darle ese nombre específico (robots.txt) y colgarlo en el directorio raíz de nuestro sitio web, puesto que es el único lugar donde lo podrán hallar sin inconvenientes los buscadores. La
configuración básica del ficheros robotses bastante fácil, incluye únicamente 2 parámetros: el robot al que nos dirigimos, y una instrucción dándole o bien quitándole permiso para indexar algo (un archivo, una carpeta, todo, nada).
En otras palabras, se trata de decirle a cada Bot (una suerte de rastreadores – arañas – que Google tiene pululando por los millones de páginas web que existen para estar al día de su contenido y poder mostrarlo adecuadamente en los resultados de búsqueda) a qué información de manera expresa puede (o bien NO puede) acceder para leer e indexar dicha información. Ni que decir debe, por defecto, si no se le dice nada Google devorará toda la información a su paso y la incluirá en su mastodóntico índice de contenidos web.
Un
ejemplo fácil y básicodel contenido de un fichero robots.txt sería el siguiente:
Como puede apreciarse, primero se define el “user-agent” o bien Bot al que se dirige la orden (bien el de Google web search, o bien Google Images, o bien Bing…) y después qué páginas han de ser ignoradas (con el comando
Disallow) o bien explícitamente indexadas (
Allow). En este caso diríase que para todos los robots (con un asterisco) deberán ignorarse -no indexarse- todas y cada una de las páginas (con la barra “del siete”, así sin nada más detrás, le hacemos ver que es una orden para todo el directorio raíz).
Con este caso le estaremos diciendo al robot de
Bingque no rastree nada de nuestro sitio. Por omisión, el resto de robots incluido el de Google podrán rastrear e indexar todo el contenido de nuestro lugar.
Un pasito más: le hemos dicho a
Bingque no indexe la carpeta “documentos”. En este caso
Googleindexará por omisión todo el contenido del lugar, al tiempo que Bing indexará todo excepto el contenido de la carpeta “documentos”. De este modo queda claro que, para
definir una carpetita en el robots, hay que colocar (tras la barra inicial que irá siempre) su nombre más una barra adicional al final.
Con este robots.txt estamos diciéndole a todos y cada uno de los robots que no indexen tres
páginas en concreto: “pagina1.html”, “pagina2.php” y “pagina3.html” que se halla en la carpeta documentos.
Hemos introducido el comando “
Allow” cuya función es la inversa al “Disallow” mas hemos quitado la barra “/” siguiente, así que le decimos que
SÍ puede indexar NADA. A primer aspecto semeja que esto debería funcionar precisamente igual que un “Disallow: /” impidiendo la indexación del sitio al completo, pero en realidad no es así.
Estamos ante
uno de los errores más susceptibles de ser cometidosa la hora de configurar el fichero robots, pues hay que tener en consideración ciertas consideraciones esenciales en relación al
comando “Allow”que es bastante puñetero:
Hasta aquí parece fácil pero con el trastear continuo en el tiempo te van haciendo falta nuevas configuraciones y comienzan a surgir las dudas,
¿qué se puede hacer con el archivo robots?. Ahí van ciertas dudas que me ha tocado experimentar, bien en primera persona o a través de preguntas frecuentes con las que me he encontrado de compañeros del marketing online:
A menudo sucede, singularmente en sitios montados sobre plataformas como
WordPress, que puede haber una página en nuestro lugar con esta estructura en su URL: “
midominio.com/servicios/“. En un caso así dicha URL es una página donde se muestran los servicios de una empresa, aunque posiblemente por debajo de ella existan páginas del tipo “
midominio.com/servicios/nombre-servicio1” o afín. Mas ¿cómo le afirmamos al robots
que excluya únicamente la página superior, sin que por ello “cape” todas las que están por debajo? La tentación sería:
Pero como ya hemos dicho, en este caso el robot entenderá que la orden afecta a
toda esa carpeta o bien directorio. Mas no es eso lo que queremos! Para decirle a los robots que sólo nos referimos a esa página específica, deberemos usar el
operador dólar (“< por cien -body() por ciento >#8221;)que sirve para especificar el
final de la URL. Así:
De esta forma le afirmamos al robot que
no indexe las URLs que acaben exactamente de esa forma, siendo la única URL de ese tipo la que queremos desindexar exactamente. Y esto nos conduce al empleo de expresiones regulares en robots.txt…
Aunque el ejemplo anterior nos sirve para explicar el uso del “< por ciento -body() por ciento >#8221; en el robots, la verdad es que para sacarle el mayor jugo ha de
emplearse al lado del asterisco“*”. Este último funciona como un
comodín, sirve para decir “sustituyo a cualesquiera cosa que pueda ir en mi lugar”. Mejor verlo con un ejemplo:
Ya hemos explicado que el dólar sirve para decirle que ahí termina la URL, que no puede llevar nada más por detrás aquello que deseemos aplicarle el “allow” o bien el “disallow”.
En el caso del asterisco le decimos que
puede sustituirlo por lo que quiera, toda vez que vaya seguido de “.htm”. Esto es, puede haber múltiples niveles de carpetita por medio (por servirnos de un ejemplo “
/carpeta/subcarpeta/pagina.htm” también sería excluído).
De esta forma en el ejemplo le estamos diciendo a todos los robots que no indexen ningún fichero .
HTMsi bien les permitimos, a través del dólar, que indexen por servirnos de un ejemplo todos los archivos con extensión .
HTML. Esto nos lleva a otra cuestión recurrente…
A menudo nuestro CMS nos genera
rutas con parámetroscomo “
midominio.com/index.php?user=1” que queremos no sean indizadas al poder incurrir en duplicidad de contenidos. Siguiendo el patrón anterior y sabiendo que los parámetros vienen precedidos de una interrogación, habría que aplicar algo como esto:
Así le afirmamos que no indexe todo cuanto comience por “lo que sea” mas que luego tenga una interrogación, seguido de lo que sea. Seguro que alguno se ha perdido en este último paso, que tendría la tentación de haber puesto “Disallow: /*?*” para asegurarse de que después de la interrogación va algo más, los parámetros. Puesto que no, resulta que
este género de expresiones regulares suponen por defecto que, tras lo que le decimos, puede ir cualquier cosa. De ahí que cuando afirmamos “Disallow: /servicios/” el robot comprende que todo lo que vaya por detrás (ej: /servicios/auditoria) tampoco lo indexará, por el hecho de que responde al patrón definido.
Pero cuidado porque esto es peligrosísimo!! Un caso lo tenemos a continuación:
Pongamos que hay una página que no queremos indexar cuya URL es exactamente ésta: “/servicio”. Podríamos caer en el que posiblemente sea
el mayor fallo cometido con el uso del archivo robots.txta nivel mundial! :O
Algún listo dirá:
Así no, eso sirve para capar la carpetita “servicio” entera.
Pues tampoco exactamente. Realmente, como ya hemos explicado antes,
el robot va a comprender que detrás de eso puede ir cualquier cosa, esto es, va a excluir páginas como:
Entonces,
¿cómo excluyo esa página que no tiene extensión?Así:
De esta forma delimitamos dónde acaba la URL, eludiendo este
super-inconveniente que en general se pasa por altoal elaborar los ficheros robots.
Esto ha quedado explicado con el punto anterior: si no se pone barra, el robots estará excluyendo todo cuanto comience de esa forma, corresponda específicamente o no a dicho subdirectorio.
Así es. En verdad su
combinaciónpuede ser una forma de delimitar mejor qué cosas se deben indexar y cuáles no para una determinada carpeta (o para todo el lugar). Un ejemplo…
De esta forma le estaríamos diciendo que
SÍ indexela página general de servicios (“midominio.com/servicios/”) pero
NO indexelas páginas sucesivas con los servicios concretos (“midominio.com/servicios/auditoria”+”midominio.com/servicios/consultoria”+etc.).
Lo ideal es
usar primero el “Allow” que no es restrictivo(por defecto se comprende como permitido indexar todo), para más tarde incluir el “Disallow”. De esta forma se facilita el trabajo a los robots más “torpes”.
Hay que tener en consideración que
se distingue entre mayúsculas y minúsculas, en un caso así no sirve usar siempre y en todo momento minúsculas. social media manager altea , un comando tipo “Disallow: /pagina.html” sí permitiría que se indexase la página “
midominio.com/Pagina.html“.
A pesar de que
WordPress es una plataforma muy extendiday Google cada vez entiende mejor qué debe indexar y qué no, en la práctica siempre y en toda circunstancia se cuelan cosas que “empañan” la calidad de la información indizada de nuestro sitio. Dado que la estructura de WP es común a todas y cada una de las instalaciones, puede definirse un
robots tipo para WordPresscon las carpetas donde el buscador no debería meter el hocico. Téngase en cuenta que esto son unos mínimos, a nada que tiremos de plantillas, complementos y personalizaciones, habrá otras nuevas carpetas que tendremos que “capar”:
Así se excluye la posible
indexación de carpetitas de sistema y archivoscon extensiones que no interesa indexar. Manéjese cuidadosamente. De hecho lo MUY recomendable es
que cada uno de ellos personalice su archivo robots.txten función del contenido y configuración de su sitio, ya sea bajo un Content Management System de código abierto como WP o bien cualquier otra plataforma.
Recordar que
además del robots.txtes posible precisar la conveniencia o no de indexar una página a través de la
meta-etiqueta “robots”que puede ser incluida a nivel individual para cada una de las páginas del lugar. seo y posicionamiento web en buscadores trataría de incluir algo afín a esto en el
<head>para cada caso:
<meta name=”robots” content=”noindex”>
Como por defecto todo es indexable, la etiqueta tiene más sentido cuando empleamos el comando
“noindex”, a pesar de que también se puede especificar “index”.
En cuanto al
sitemap, 2 consideraciones:
Como ya se ha dejado entrever antes,
existen diferentes Bots/ Robots / Crawlers / Arañas que se pasan las horas muertas dando vueltas por la red de redes tragando información como locos. Por ser prácticos y puesto que
Googlese lleva como un 97 por cien de las búsquedas estatales, vamos a detallar losy para qué sirven:
User-agent: GooglebotDisallow: /User-agent: Googlebot-NewsDisallow:
User-agent: Googlebot-ImageDisallow: /fotos-verano/
User-agent: GooglebotDisallow: /User-agent: Mediapartners-GoogleDisallow:
Tan importante como conseguir un alto ritmo de indexación, con los robots de Google visitando recurrentemente nuestros sitios más actualizados, será intentar que no se indexe información privada o bien contenido que pueda considerarse duplicado, entre otros casos. Así que habrá que preocuparse en configurar el archivo robots.txt, las “meta robots” si fuera preciso, comunicarse con Google a través de Google Webmaster Tools, y todo cuanto está en nuestras manos. A partir de ahí toca orar! XD