(Post en proceso de actualización. Fecha de publicación estimada octubre de 2019)
Entendemos como auditoría SEO el conjunto de pruebas técnicas a las que sometemos a una web para establecer su estado general en referencia a la situación que tendría que tener para una correcta optimización SEO y, por lo tanto, un buen posicionamiento en SERPs.
Pero no solo eso, dado que sino sería auditoría SEO técnica, sino que también debemos meternos en otros aspectos para poder asesorar adecuadamente, así como saber priorizar o realizar todas aquellas cuestiones que puedan tener un mayor impacto a nivel orgánico y en la cuenta de resultados de nuestro clientes.
ÍNDICE DE CONTENIDOS
Trabajamos para cubrir las necesidades de nuestros usuarios. Todos los buscadores tienen una serie de filtros y directrices que debemos conocer, de forma que nuestra web cumpla con todas ellas y sea de verdad la base de nuestra estrategia SEO.
Necesitamos invertir tiempo inicial en tener una visión completa del negocio, de forma que podamos decidir qué acciones realizar en el tiempo que generen un impacto real en el proyecto.
Necesitamos:
Todo esto nos ayudará a tomar decisiones en todo momento.
Recuerda que el documento final de auditoría no especifica los fallos encontrados en la web, sino que propone los cambios necesarios para conseguir mejorar la visibilidad en buscadores, siempre teniendo en cuenta la rentabilidad del proyecto.
Necesitamos entender el funcionamiento básico de Google.
Los fundamentos de Google parten de una serie de robots (arañas) que rastrean las información de internet visitando una web y todos los enlaces que contiene, y así hasta el infinito.
La primera comprobación a la que sometemos a la web es su estado de indexación en Google, es decir, comprobamos que el buscador ha añadido las urls que componen la web a su índice. Para ello:
Haremos las 3 comprobaciones para disponer de varias fuentes fiables que nos digan el total de URLs indexadas de la web, así como para comprobar si entre ellas hay una disparidad grande de resultados.
Con esta comprobación, conoceremos cuántas URLs queremos posicionar en este proyecto, cuántas ya han sido indexadas por Google, si tenemos o no contenido duplicado que lastre el proyecto…
Si hemos ejecutado el crawler con Screaming Frog, o cualquier otra herramienta similar, podemos aprovechar para comprobar los códigos de respuesta que arrojan las distintas URLs, en función de si el crawl, actuando como lo haría el bot de Google, ha podido o no acceder y rastrear las distintas urls.
Los códigos de respuesta más habituales son:
El contenido duplicado es uno de los errores más comunes que afecta directa y fuertemente al posicionamiento de una web. Cuando hacemos el esfuerzo de rastrear y eliminar el contenido duplicado, facilitamos el trabajo de los bots, que pueden rastrear la web de forma más rápida y eficiente, ya que no tienen que distinguir entre el contenido original y el duplicado, lo que influye directamente en la mejora dela indexabilidad.
Como base, usamos Safecont en todas las auditorías para este punto.
Cuando acabamos de reestructurar una web completa o cuando se ha producido una migración de contenidos (por ejemplo, http a https), es necesario implementar redirecciones 301 ( «RedirectPermanent») en el fichero .htaccess de la web, con el objetivo de redireccionar de una vez todos aquellos contenidos que aparezcan en varios sitios.
La utilización de operadores de búsqueda puede simplificar la detección de contenido suplicado en determinados casos, como por ejemplo en el caso de URLs duplicadas.
Es tan sencillo como ejecutar el comando site: midominio.com inurl “keyword”, el buscador nos devolverá un listado de todas las URLs de la web que contengan la palabra clave especificada.
Se trata de una etiqueta que debemos utilizar con cuidado, pues para Google es una mera indicación, lo que quiere decir que puede hacer caso o no a aquello que hemos marcado como canonicalizado.
Los microformatos son un vocabulario de datos estructurados común, también conocido como Rich Snippets, desarrollado como iniciativa de los principales buscadores con el objetivo de crear un estándar que les permita entender mejor la información. Gracias a la iniciativa resultante,Schema.org , los webmasters pueden consultar los microformatos aceptados por todos los buscadores en un único lugar.
Para que funcionen correctamente, los microformatos deben:
A la hora de implementar los Rich Snippets en nuestra web, podemos pedirle a nuestro programador que realice un desarrollo específico en nuestra plantilla de CMS. Si nuestro CMS es WordPress, es más sencillo aún, ya que existe una amplia variedad de pluggins que podemos instalar para implementar los microformatos de forma sencilla y automática.
Algunos de los más conocidos son WP Rich Snippets, Schema App Structured Data o All In One Schema.org Rich Snippets.
Una vez que hemos implementado los microformatos, es necesario validar que funcionan correctamente, mediante la herramienta de pruebas de Google Search Console que analiza el código HTML de la web.
Entendemos como SEO onpage al conjunto de acciones que llevamos a cabo para optimizar la página web de cara a su comportamiento en buscadores, y cuyo objetivo último es conseguir escalar posiciones en las SERPs que deriven en un aumento del tráfico orgánico, el que procede directamente de los motores de búsqueda.
Existe un largo listado de intervenciones On-Page que se pueden realizar en una web con el objetivo de mejorarla. A continuación, te explicamos algunas de las más importantes.
Las URLs en las que la keyword principal aparece entre las 3-5 primeras palabras tienen más peso en el posicionamiento natural. Esto quiere decir que debemos huir de URLs sin sentido (con número o parámetros extraños), apostando por direcciones naturales, con la keyword expresada de forma clara.
midominio.com/preguntas-frecuentes
No intentes volcar todo el contenido de la web en la URL: se han realizado estudios que demuestran que la mejor redacción para la misma a la hora de ser indexada y rankear es corta y con las palabras clave que se atacan separadas por guiones.
midominio.com/como-indexar-urls
Ya sabes que cada URL debe atacar una única keyword con una intencionalidad específica de búsqueda, por lo que lo mejor es dejar claro lo antes posible cuál es esa keyword: úsala en el título de la página, mejor cuanto más al principio, para que a Google no le quepan dudas de cuál es.
Del mismo modo, no dejes pasar la oportunidad de introducir tu keyword en las imágenes que acompañen al contenido de la URLs, ya que además de favorecer el posicionamiento, contribuirás a mejorar la accesibilidad de la web (el atributo alt sustituye a la imagen si, por alguna razón, esta no se muestra).
El H1 se corresponde, de forma habitual, con el titular de la URL, la primera cabecera que vemos al acceder a la misma y que nos “resumen” la información que contiene. Utiliza esta etiqueta para explicar a tus usuarios y al buscador lo que pueden encontrar en la URL.
Entendemos por canibalización el hecho de que Google dude entre dos o más páginas de una misma web a la hora de posicionarlas para una keyword concreta, de forma que ambas compiten entre sí en el ranking, lo que al final impide el rankeo de ambas.
Debemos asegurarnos de que cada una de las URLs de nuestra web está orientada a una única keyword con una intencionalidad de búsqueda definida. Si detectamos que hay más de una URL para una palabra clave concreta, debemos optar por unificar ambos contenidos y redireccionar la más débil a la más fuerte o por establecer una estrategia de creación de contenidos semánticos que diferencie ambas de forma definitiva, en función de la importancia de las mismas para la estrategia general.
Aunque la metadescripción en sí no contribuye al posicionamiento de la web, la inserción en la misma de Rich Snippets (como hemos explicado más arriba) y una correcta redacción, utilizando el campo semántico de la keyword que estamos trabajando, con una llamada a la acción, puede contribuir a incrementar el tráfico orgánico de la página.
Como ya hemos mencionado, no debes crear dudas a Google acerca de cuál es la keyword que estás trabajando en cada URL concreta. Es muy recomendable que, además de en el H1, aparezca en el primer párrafo del contenido, así como varias veces a lo largo del mismo (ojo, sin llegar a hacer Spam, potencialmente penalizable). Utiliza variaciones de la misma, sinónimos y todo su campo semántico para evitar enfadar a Google.
Desarrollar una estrategia de enlazado desde cada URL otras relacionadas dentro de tu misma web tiene un doble beneficio: por un lado, facilitas que la araña de Google acceda a todas las URLs de tu web de forma sencilla, mientras que por otro aportas información al usuario, mejorando su experiencia de navegación.
Al igual que en la redacción del contenido, utiliza variaciones de la keyword principal y longtails cuando insertes los enlaces hacia otras URLs de tu web, buscando la naturalidad en los mismo. Lo contrario se considera keyword stuffing y es potencialmente penalizable.
Aportarás valor añadido al usuario, conseguirás contenido original y único para tu página y aportarás un punto de vista distinto del resto de webs de la misma temática.
El contenido de tu web no sólo debe ser de calidad y original: debe estar maquetado de forma que resulte visualmente atractivo al usuario. Huye de párrafos largos, inserta negritas en las ideas principales, de forma que el lector pueda encontrarlas con sólo echar un vistazo y utiliza los listados y enumeraciones para aligerar visualmente los textos.
Se conoce como crawl budget al crédito de tiempo que Google otorga a tu web para ser rastreada por el bot: webs más grandes y con más autoridad disponen de un crawl budget superior.
Ponle las cosas fáciles al buscador: la implementación de breadcrumbs y un correcto enlazado interno facilita que las arañas sepan por dónde seguir y sean capaces de rastrear la web completa de forma más eficiente.
Corresponde al maquetador implementar una plantilla sencilla en HTML, con la menor cantidad de código posible y redactado de forma limpia y sencilla, lo que redundará en un menor número de elementos cargados en el DOM y, con ello, a un menor tiempo de carga de la web.
Si facilitas que el usuario pueda encontrar fácilmente el contenido relacionado con la URL que está viendo (productos similares, información relacionada, etc) facilitas que visite más páginas dentro de la web, aumentando el tiempo de permanencia en la misma.
Todo el diseño de la web desde estar orientado a mejorar la experiencia de usuario, que es para quien, al fin y al cabo, trabajamos.
Si vas a seguir una estrategia internacional, es fundamental que implementes esta etiqueta en la cabecera para señalar los distintos idiomas en los que vas a trabajar la web.
Aunque hay cierta controversia acerca de si afecta o no directamente al SEO de la web, nuestra recomendación es que lo incluyas en la cabecera de la página: en el peor de los casos, si asumimos que no afecta al SEO, contribuirá a la identificación y asociación de tu marca con la web.
Además de establecer un canal de comunicación directa con tus usuarios, favoreces que se genere contenido original de forma “automática” y sin destinar recursos propios a ello.
Establecer un mapa web es una de las mejores formas para facilitar el rastreo de la web por parte de los buscadores. A la hora de crearlo, asegúrate de que
El sitemap HTML tiene un doble beneficio, ya que no sólo beneficia a los bots de los buscadores, sino a los propios usuarios de la web, a los que facilita encontrar los contenidos que buscan dentro de la misma.
Estas etiquetas HTML se utilizaban para reducir el contenido duplicado y la podíamos interpretar como una posible mejora de crawlabilidad en las interrelaciones entre las paginaciones de la web, ayudando a Google como una señal de indexación aplicable a la optimización de listados. Bueno, pues como en marzo de 2019 nos enteramos que Google lleva unos años sin utilizarlo… y no había informado a nadie de ello.
Aunque no existe una correlación directa entre la cantidad de contenido y la calidad del mismo, sí es cierto que es muy difícil competir en el mar de Internet con un texto de 400 palabras, especialmente si se trata de un concepto con mucha competencia.
Trata de redactar el mejor contenido original posible para cada concepto sin marcarte límites en cuanto a extensión.
De esta manera, consigues que cuando el crawler rastree la web encuentre la información lo antes posible, lo que beneficiará tu crawl Budget y redundará en un mejor posicionamiento.
El contenido above the fold es aquel que el usuario ve de forma instantánea al entrar en la web, sin necesidad de hacer scroll. Intenta que toda la información importante de tu web aparezca en ese primer vistazo.
Tanto para facilitar las cosas al buscador como al usuario, intenta siempre evitar tener URLs a más de tres niveles de profundidad, es decir, que requieran más de 3 acciones desde la página principal. Si tienes muchas URLs por debajo de ese nivel, debes plantearte un rediseño de tu arquitectura.
Actualmente, existen 3 maneras de adaptar una web a los requrimientos de los navegadores de los dispositivos móviles.
El diseño responsive consiste en un código CSS3 que consigue mostrar el mismo contenido independientemente del tipo y tamaño de la pantalla mediante la utilización de una rejilla y un diseño flexible, que se adapta automáticamente.
En este caso, el contenido se provee con distintos HTML y CSS en función del user agent que haga la petición, es decir, dependiendo de si la petición se hace desde móvil, tablet o desktop.
Es necesario adaptar la funcionalidad con cada nuevo modelo de smartphone o tablet que sale al mercado, ya que hasta que no está adaptado a este no funciona, mostrando el contenido como lo haría en desktop.
En este caso, los contenidos de desktop y mobile estarán alojados en URLs diferentes, lo que supone que la experiencia de usuario también será distinta.
Supone proveer el contenido para móviles y para usuarios de sobremesa en URL’s diferentes, generalmente utilizando para la versión móvil una URL con .m o mediante un subdominio de la URL principal. Esto implica que la experiencia de usuario sea diferente igualmente.
Si nos decidimos por implementar esta opción, debemos tener en cuenta:
El WPO hace referencia al tiempo de carga de nuestra web con respecto a las webs de la competencia. Nuestro objetivo debe ser reducir lo máximo posible ese tiempo de carga, tanto en Desktop como, y muy especialmente, en mobile.
Para ello, es necesario consultar todas las mejoras técnicas disponibles e implementar todas aquellas que sea posible, teniendo en cuenta que cada web cuenta con características especiales en cuanto a restricciones técnicas o de seguridad, por ejemplo, que impiden que podamos implementar todas las mejoras que quisiéramos.
Sin embargo, existen intervenciones muy simples y que están al alcance de cualquiera que pueden reducir considerablemente el tiempo de carga de nuestra web.
Subir una imagen a la web a un tamaño superior al que se va a ver incrementará el tiempo de carga de la misma de forma inútil. Optimizarlas para reducir su peso y publicarlas en el tamaño en el que se van visualizar ayuda a reducir los tiempos de carga y, por tanto, la experiencia de usuario.
Reducir el número redirecciones, ya sea temporales (302) o permanentes (301) impide que el crawl desperdicie recursos desplazándose de una página a otra.
Puedes modificar el orden de carga de los ficheros en el DOM mediante javascript, de modo que las arañas encuentren inicialmente el contenido HTML y después aquellos ficheros que no contribuyen al posicionamiento de la web en SERPs.
Eliminar de la web todos aquellos archivos que no se utilizan favorece la rapidez de la carga, al evitar la descarga de información inútil. Esto es especialmente importante en lo que se refiere a las hojas de estilo no utilizadas.
Este tipo de programas optimizan el código, lo que consigue que las hojas de estilos sean más reducidas y pesen menos, lo que favorece el tiempo de carga.
Cuanto menos tiempo pierda el crawl en rastrear páginas que no aportan información, más tiempo le restará para rastrear el resto de URLs correctas y favorecer su indexación y posicionamiento.
Del mismo modo, reducir el número de elementos que cargan en primera instancia en la web favorece la velocidad de esa primera carga.
Aunque aún existe cierta controversia acerca de si el favicon afecta o no al posicionamiento SEO, sin duda se trata de un elemento que favorece el branding de la marca. Se recomienda utilizar un favicon lo más pequeño posible y que permita ser cacheado.
Existen herramientas que te pueden ayudar a detectar los plugins instalados en tu WordPress que no utilizas o a los que no estás sacando rendimiento.
Cuando minificas el código (HTML, JS y CSS), reduces el número de líneas que tiene que procesar el bot, lo que agiliza el resto de procesos. Existen plugins específicos para minificar el código en cada CMS.
El protocolo HTTP/2 es una mejora del clásico HTTP que funciona sobre TCP/IP optimizando el rendimiento en las comunicaciones cliente-servidor, mejorando el tiempo de renderizado y reduciendo la carga.
Como ya hemos comentado en otras ocasiones, el hecho de que al final de la URL aparezca o no una barra genera en realidad URLs distintas que, además, provocan canibalización de contenidos, ya que muestran el mismo contenido. Para evitarlo, se puede realizar una redirección desde la una a la otra o, mejor de cara a la optimización para buscadores de la web, implementarla en el archivo .htaccess.
Se trata de una herramienta gratuita proporcionada por Google, que permite analizar el estado de la web en base a sus resultados de tráfico orgánico, ofreciendo datos de SERPs, enlaces, estado de indexación, errores de crawl o servidor… Para poder utilizarla sólo es necesario disponer de una cuenta de Gmail.
Igual que la anterior, procede del universo Google y su uso es gratuito, aunque en este caso está orientada al análisis del tráfico de la web, organizada por fuentes de tráfico, tipo de adquisición, comportamiento del usuario y conversiones, entre otros.
Se trata de una herramienta muy completa, que permite descargar informes personalizados, así como crear segmentos para filtrar la información disponible y analizar el resultado de campañas de marketing con datos de sesiones, tasas de rebote, duración media de la sesión, contenidos más vistos, consecución de objetivos…
Se trata, sin duda, del crawl más famoso y una herramienta imprescindible para realizar auditorías técnicas: el programa de la rana se comporta tal y como lo haría el bot de Google, mostrando tras el análisis información de gran importancia, como titles y metadescriptions, estructura de cabeceras de las URLs, contenidos de baja calidad y duplicados, códigos de respuesta de las distintas URLs… Cada uno de los informes de Screaming Frog permite atacar un aspecto de la web para su mejor optimización.
Además de los programas anteriores, Google ofrece varias extensiones con las que podemos complementar los datos recogidos para llevar a cabo una auditoría técnica.
Nos muestra las metaetiquetas ( URL, Title Tag, H1 y Metadescription) de la URL aportada, al mismo tiempo que analiza los enlaces encontrados en el contenido y los clasifica en follow, no follow, externos e internos. Además, nos muestra los valores de la Autoridad de Página( PA ) y la Autoridad de Dominio ( DA ).
Permite comprobar el estado de aspectos técnicos SEO, como los atributos alt en las imágenes, los enlaces o los headings (H1, H2, H3…) de la página. Además, con esta extensión podemos deshabilitar los CSS para comprobar si el bot visualiza la misma versión que los usuarios en en sus navegadores.
También es importante disponer de herramientas apropiadas para revisar la velocidad de carga de la web y en qué orden se cargan los elementos en el DOM.
La herramienta nos muestra el tiempo que tarda en cargar el primer byte, así como el tiempo de carga del resto de elementos, mostrado en en un gráfico en forma de cascada.
Identifica los cuellos de botella en el rendimiento de la web mostrando los tiempos de carga de cada una de sus partes y ordenando los resultados.
Esta herramienta web gratuita realiza diversos test, utilizando navegadores reales (Internet Explorer y Google Chrome) desde distintos países del mundo, para lo que pone en marcha pruebas de distinta complejidad.
Los resultados incluyen simulaciones de carga de imágenes y vídeos y sugerencias de mejora, entre otros.
Esta herramienta mide el nivel de optimización de una web en desktop y móvil, simulando el user agent de cada uno y aportando una puntuación de 0 a 100 puntos: la web estará mejor optimizada cuanto mejor puntuación tenga.
Post anterior
Google Search Console: todo lo que necesitas saberPost relacionados con: Auditoría SEO para un sitio web PASO a PASO
Compartir