Cuando un nuevo proyecto posicionamiento SEO cae en mis manos siento la irrefrenable necesidad de comenzar a hacer cosas, cuando veo algo que puede estar levemente mejor necesito arreglarlo, mas esto no es una buena idea, lo mejor es calmarse, respirar hondo y empezar a hacer una buena planificación partiendo de un buen estudio de la página web y de la.
Antes de comenzar a hacer cualquier análisis o bien estudio la primera cosa que hay que hacer es navegar por la páginapara hacernos una idea lo más profunda posible de a lo que nos estamos encarando.
Hay muchos pasos que hay que seguir en el momento de hacer un análisis on-site que pase a los anales de la historia, pero se pueden agrupar fácilmente en cuatro:
Si Google o bien los usuarios no pueden acceder a una página, también podría no existir, que sería lo mismo. Así que
lo primero en que hay que fijarse es si nuestra web es visible a los ojos de los motores de búsqueda.
El fichero
robots.txtse emplea para impedir a los motores de búsqueda que accedan y también indexen ciertas unas partes de tu web, si bien es muy útil, puede darse la situación de que bloqueemos el acceso a nuestra web sin darnos cuenta.
En este caso extremo, el archivo
robots.txtestá bloqueando el acceso a toda la web:
User-agent: *
Disallow: /
Lo que debemos hacer es revisar manualmente que el fichero robots.txt (generalmente la URL suele ser
/robots.txt) no está bloqueando ninguna parte importante de nuestra página web. También podemos hacer esto a través de.
Las meta etiquetas se usan para decirle a los robots de los motores de búsqueda si pueden o no indexar esa página y proseguir los links que contiene. En el momento de examinar una página
debemos de revisar si existe alguna meta-etiqueta que por fallo esté bloqueando el acceso a los robots. Este es un caso de como se ven estás etiquetas en el código HTML:
<meta name=»robots» content=»noindex, nofollow»>
En el caso de que alguna URL devuelva un fallo (fallos 404, quinientos dos, etc., los usuarios y los motores de búsqueda no podrán acceder a esa página . A lo largo de este paso se deben identificar todas las URLs que devuelvan error,para más tarde arreglarlas.
Para identificar estas URLs recomiendo emplear, te enseña rápidamente el estado de todas y cada una de las URLs de tu página, si bien en la versión gratuita solo te deja ver quinientos, aún si, si la página web no es muy grande nos servirá de gran ayuda. También en
Google Administrador web Toolspodemos ver esto, pero a mi parecer es menos fiable.
Aprovecharemos este paso para saber si existe alguna redirecciónen la web y si es así, si es una redirección temporal 302 (en esté caso la convertiríamos en un redirección permanente 301) o si es una redirección permanente 301 mas redirige a una página que no tenía nada que ver con ella, entonces lo redirigiremos a donde debe.
El sitemap es literalmente un mapa para Googlecon el que nos aseguramos de que Google halla todas las páginas importantes de nuestra página web. Hay varios puntos esenciales a tener en consideración con el Sitemap:
Haz un esquema de toda la web en el que se pueda ver fácilmente los niveles que tiene desde la home hasta la página más profunda y cuantos «clicks» hacen falta para llegar a ellas. También busca si todas las páginas tienen al menos un enlace interno apuntando hacia ellas. Se puede comprobar fácilmente confiltrando los enlaces solo por internos. Esto es por el hecho de que Google tiene un tiempo limitado para rastrear una web, cuantos menos niveles deba saltar para llegar a lo má mantenimiento informático empresa , mejor.
Aunque en los últimos años se ha vuelto más inteligente a la hora de leer este género de tecnologías, es mucho mejor no utilizarlas para eludir posibles problemas.
Para revisar esto solo tienes que navegar un par de veces a través de la web: una con el Javascript activado y otra con él desactivado. Usandonos sera mucho más fácil.
Es bien sabido que un de los factores del incremento del porcentaje de rebote es la velocidad de carga de una página, mas hay que tomar en consideración que el robot de
Google también tiene un tiempo limitado a la hora de navegar por nuestra página, cuanto menos tarde cada página en cargar a más páginas conseguirá llegar.
análisis seo web emplear varias herramientas para poder ver la velocidad de carga de la web.ofrece un sinnúmero de datos acerca de lo que ralentiza la carga de la web así como consejos de.
también nos da de manera más gráfica los distintos elementos que se cargan en nuestra web y el tiempo que le toma a nuestro navegador hacerlo.
Ya hemos identificado cuales son las páginas a las que pueden acceder los motores de búsqueda, ahora lo que tenemos que hacer es identificar cuantas de esas páginas están siendo realmente indexadas por ellos.
Google ofrece de la posibilidad hacer búsqueda con el comando «site:» Con este comando lo que hacemos es hacer una búsqueda en una web detalla, lo que nos da un idea muy aproximada del número de páginas que Google tiene indexadas.
Esto nos sirve para comparar la cantidad de páginas que Google tiene indexadas con el número real de las páginas de la página web, que sabemos ya por el sitemap y haber navegado por la web previamente. Pueden suceder 3 cosas:
En el segundo caso lo que haremos es revisar todos y cada uno de los puntos de accesibilidad por si se nos ha pasado algo. En el tercer caso revisaremos que nuestra página no tenga contenido duplicado, cosa que explicaré más adelante.
Para saber si las páginas que están posicionan mejor son las realmente importantes solo tenemos que buscar de nuevo con el comando «site:», lo lógico sería que la home apareciera primeramente seguida de las páginas más importantes de la web, si no es así debemos investigar porqué (lo vamos a ver más abajo)
Después de saber si las páginas importantes están bien posicionadas tenemos que saber si la página web está posicionando bien para un búsqueda con el propio nombre de la web.
Si la página web aparece en las primeras situaciones, todo está bien, si la página web no parece por ninguna parte, tenemos un problema: puede que Google haya penalizado la página web, es hora de descubrirlo.
Si te has parado en este punto, es que posiblemente tengas un problema con nuestro amigo Google. Es parcialmente fácil saber si has sido totalmente penalizado por Google, mas lo optimo es averiguar hasta la más mínima penalización que el Gran Hermano haya podido obsequiarnos.
He hablado ya sobre, mas también hay que tomar en consideración que la perdidas de tráfico también se pueden deber a cambios en el algoritmo de Google, con lo que hay que seguir 2 pasos para cerciorarse de que verdaderamente es una penalización:
Lo primero que hay que hacer es una búsqueda de nuestra marca en Google, si no aparecemos por ningún lugar posiblemente sea un penalización, mas también es posible que estemos bloqueando el acceso a Google a la web, si es así hay que seguir de nuevo los pasos que he explicado más arriba.
Una vez que hayamos comprobado que todo está bien en lo que a nosotros respecta, haremos una búsqueda de la URL de la web en Google (sin el comando
site:) y vamos a ver sí todas y cada una de las páginas importantes aparecen en primera página; después vamos a hacer búsquedas de las URLs de cada tipo de página, si se tratase de un y también-commerce sería categoría,sub-categoria, producto, fabricante,etc.
Una vez que estés seguro que alguna parte de la web está siendo penalizada hay que ponerse en acción y averiguar la razón. Esto requiere un análisis pormenorizado de cualquier factor interno o externo: mismo anchor text en multitud de links internos o externos, keyword stuffing en el contenido de la páginas, enlaces desde web de calidad dudosa…la razones pueden ser muchas, solo hay que tener paciencia.
El último paso sería corregirlo y mandar unaa Google desde Webmaster Tools, pero eso lo trataremos en otros blog post.
Ya hemos analizado la accesibilidad y la indexabilidad de la página web, ahora le toca el turno a los
factores que afectan directamente al posicionamiento en Google. Este paso es bien interesante por el hecho de que es donde vamos a encontrar más ocasiones para prosperar cosas en la página web.
Para examinar las URLs de las páginas debemos hacernos 5 preguntas:
Creo que ha quedado bastante claro por parte de Google que
el contenido el rey, ofrezcamosle un buen trono entonces.
Para hacer un buen análisis del contenido de nuestra página web tenemos varias herramientas a nuestra disposición, mas al final lo más útil es usar la página cacheada por Google para ver la versión en solo texto, de este modo vamos a ver que contenido está leyendo Google verdaderamente y en que orden está preparado.
A la hora de hacer el análisis del contenido de las páginas nos haremos múltiples preguntas que nos guiasen en el proceso:
La mejor manera para comprobar todo esto, creacion de paginas web a medida , es hacer un archivo excel en el que apuntar para cada una de las páginas las keywords en las que se centra y todos los fallos que vallamos viendo en ellas, así en el momento de comprobarlo para su mejora lo vamos a tener mucho más fácil.
Tener contenido duplicado significa que
para varias URLs tenemos exactamente el mismo contenido, puede ser contenido copiado interno o bien externo. En otro blog post he hablado de múltiples.
Para detectar el contenido copiado podemos ha medida que has hecho la navegación por la web apuntando los posibles casos de contenido duplicado, luego copias un párrafo del texto y haces la búsqueda en Google entre
[corchetes], esto no dará como resultado todas las páginas tanto internas como externas que poseen ese párrafo. También son útiles herramientas como.
No hay que subestimar el código de la página a la hora de hacer el análisis, contiene buena parte de los factores de posicionamiento más esenciales.
Antes de empezar con puntos específicos del código HTML debemos de asegurarnos que cumple los estándares, W3C ofrece unde HTML que nos mostrara cualquier fallo del código.
El título de la página es quizás el elemento más esencial.
Es lo primero que aparece en los resultados en Google y es lo que se muestra cuando la gente pone el link en las redes sociales(salvo Twitter).
Para analizar el título seguiremos también (como no) una serie de pasos:
Otra cosa a tener en cuenta es donde poner la «marca», esto es, el nombre de la página web, por norma general se acostumbra a poner al final para dar más importancia a las palabras clave esenciales, separando estas del nombre de la página web con un guión o bien una barra vertical. Podemos ver fácilmente todos y cada uno de los títulos de las páginas con
Aunque no es un factor de posicionamiento, afecta de forma notable a la tasa de clics (click-through rate) en los resultados de búsqueda.
Para la meta description proseguiremos los mismos principios que con el título, solo que la longitud de está
no debe de sobrepasar los ciento cincuenta y cinco caracteres. Tanto para lo títulos y la descripciones debemos de evitar la duplicidad, esto lo vamos a poder comprobar en Google Webmaster Tools (
optimización > mejoras HTML).
A la hora de analizar la imágenes debemos tomar en consideración 3 factores:
Es muy importante examinar el numero de links, tanto externos como internos, y a donde están enlazando, para esto (otra vez, que pesado el tío con las listas) haremos una lista con los factores más importantes:
También debes asegurarte que las páginas importantes reciban links de las otras páginas importantes de la web y de que todas y cada una de las páginas en la web tengan al menos un link apuntando hacia ellas.
Siguiendo todos estos pasos vamos a hacer un análisis posicionamiento en buscadores on-site de cualquier web con el que vamos a poder tirarnos horas delante de la pantalla para entonces dejarla impecable. Me gusta mucho incidir en que por mucho enlace-building que sea haga, si esos links apuntan a páginas que nos hagan plañir, no valdrán para nada.