Un sitio web que no está indexado es como si no existiera ya que no aparecerá en las consultas de búsqueda y no obtendrá tráfico orgánico. Por eso no podemos permitir que Google no indexe nuestro sitio web. Por desgracia, este es un problema bastante común.
¡Pero que no cunda el pánico! En este post, le explicaremos las principales técnicas para conseguir que su sitio web sea indexado por Google.
Tabla de contenidos
¿Cómo funciona la indexación de Google?
Google se basa en algoritmos algo complejos, pero el proceso que sigue para indexar una página es sencillo. El buscador se basa en una serie de códigos que conocemos como arañas web, crawlers o bots.
Estas arañas inspeccionan las páginas web para encontrar contenido nuevo y actualizado. Puede tratarse de una nueva página en un sitio existente o de un sitio web completamente nuevo. Los bots empiezan por rastrear algunas páginas web y luego siguen los enlaces de esas páginas para encontrar nuevas URL.
Hace un tiempo, las SERPs de Google eran fáciles de "manipular", y podíamos conseguir que Google indexara un sitio web básicamente por sus palabras clave y enlaces.
Hoy en día la situación es totalmente diferente. Aunque las palabras clave siguen siendo importantes, Google también da gran importancia a la experiencia del usuario y a la intención que hay detrás de la búsqueda. Podemos decir que ahora las arañas son más inteligentes.
La indexación de Google se refiere a cómo las arañas procesan los datos encontrados en una página cuando la rastrean.
Cómo conseguir rápidamente que su sitio web sea indexado por Google
Como hemos dicho, es bastante común que Google no indexe una página, pero las causas suelen ser las mismas.
Podrá resolverlo aplicando las siguientes soluciones:
Compruebe que tiene las directivas robots.txt adecuadas
Una de las razones por las que Google puede no estar indexando su sitio podría ser debido a las directivas dadas en el archivo robots.txt.
Para comprobarlo, vaya a sudominio.com/robots.txt, y busque alguno de estos dos códigos:
User-agent: Googlebot
Disallow: /
User-agent: *
Disallow: /
Ambos indican a GoogleBot que no debe rastrear ninguna página del sitio. Es necesario eliminarlos para resolver el problema sin más.
Elimine las etiquetas noindex
Google no indexará su página si le dices que no lo haga. Esto podría ser útil para mantener la privacidad de ciertas páginas web.
Hay dos maneras de decirle al motor de búsqueda que no indexe un sitio:
Etiquetas meta
Google does not index pages with any of these meta tags in the <head> of the HTML:
<meta name=“robots” content=“noindex”>
<meta name=“googlebot” content=“noindex”>
Debe eliminar las etiquetas "noindex" situadas en las páginas que desea que Google indexe. Para ello, puede utilizar un SEO Crawler como FandangoSEO para identificar rápidamente todas las páginas con la etiqueta noindex.
X-Robots-Tag
GoogleBot también respeta la directiva X-Robots Tag. Puede comprobar si Google no puede rastrear una página debido a esta directiva mediante la herramienta de inspección de URL de Google Search Console.
Debe pedir a su desarrollador que excluya las páginas que desea indexar para que no devuelvan este header.
Utilice la API de indexación de Google o GSC
Los sitios con muchas páginas con poco contenido (anuncios, ofertas de empleo, etc.) pueden utilizar la API de indexación de Google para solicitar automáticamente que se rastreen e indexen los nuevos contenidos y los cambios de contenido.
La API permite enviar URLs individuales. Es beneficioso para que Google mantenga actualizado el índice de sus páginas. Gracias a esta API podrá:
- Actualizar una URL: Notifica a Google de una URL nueva o actualizada para que la rastree.
- Eliminar una URL: Informa al motor de búsqueda de que una página obsoleta ha sido eliminada del sitio.
- Comprobar el estado de una solicitud: Consulte cuándo fue la última vez que GoogleBot rastreó la URL.
Esto es algo que también puede hacer con FandangoSEO. La herramienta le permite solicitar a Google hasta 200 URLs para ser indexadas a la vez.
Otra forma de acelerar la indexación de su página web es a través de Google Search Console. Utilice la herramienta de inspección de URLs de GSC para solicitar a Google que vuelva a rastrear sus páginas. Esto es útil para solicitar el rastreo de URLs individuales. Permite un máximo de 12 envíos de URL al día, por lo que si necesita enviar más, es mejor utilizar un sitemap XML.
Para empezar, tendrá que inspeccionar las URLs a través de la Herramienta de Inspección de URLs. A continuación, seleccione Solicitar indexación. La herramienta comprobará primero si tiene algún problema de indexación. Si no es el caso, la URL se pondrá en cola para el rastreo.
Elimine las etiquetas canónicas incorrectas
La etiqueta canónica indica a Google cuál es la URL con la versión preferente de una página. La mayoría de las páginas no la contienen, por lo que los motores de búsqueda asumen que deben indexarlas. Sin embargo, si su página tiene una etiqueta canónica incorrecta, podría estar provocando un error al informar a Google de una versión preferente que no existe.
Si desea revisar las etiquetas canónicas de un sitio web, utilice la herramienta de inspección de URL de Google o un SEO Crawler . Si detecta alguna página que no debería contener la etiqueta canónica, elimínela.
Incluya las páginas relevantes en su Sitemap
Su Sitemap indica a Google qué páginas son esenciales y cuáles no. De ahí la importancia de proporcionar un mapa del sitio a Google.
La verdad es que el motor de búsqueda debería ser capaz de encontrar las páginas de su sitio web independientemente de si están en el Sitemap o no, pero es una buena idea incluirlas ya que "facilita las cosas" a Google.
Puede utilizar la herramienta de inspección de URL de GSC para comprobar si una página está incluida en el Sitemap.
Detecte páginas huérfanas
Una página huérfana es una página sin enlaces internos. Google descubre nuevos contenidos cuando rastrea la web, pero lógicamente no puede encontrar páginas huérfanas si no hay enlaces hacia ellas. Y tampoco pueden hacerlo los visitantes del sitio.
Puede detectar si hay páginas huérfanas en un sitio web utilizando un SEO Crawler. Obtenga más información en nuestra Guía de páginas huérfanas.
Corrija los enlaces internos que contienen el atributo nofollow
Los enlaces nofollow son aquellos que contienen una etiqueta rel="nofollow" y se utilizan para evitar la transferencia de PageRank a la URL de destino. Google no rastreaba este tipo de enlaces hasta que lanzó la actualización Nofollow del 1 de marzo de 2020, cuando declaró que este atributo ahora sólo funciona como una pista.
Debe revisar sus enlaces internos para identificar aquellos que contienen un atributo nofollow. Si quiere que la página de destino se indexe, deberá eliminar las directrices nofollow.
Añada potentes enlaces internos
Si quiere que Google indexe una página rápidamente, puede mostrar lo valiosa que es esta página proporcionándole una buena cantidad de link juice (o autoridad). Para ello, puede enlazar la página lo más cerca posible de su Home. El número de enlaces internos que tiene la página también revela su relevancia en su sitio.
Obtenga más información sobre cómo crear una fuerte vinculación interna en nuestra Guía.
Evite los contenidos duplicados
Los robots de Google se confunden si haycontenidoduplicado. El motor de búsqueda indexa inicialmente sólo una URL para cada conjunto de contenido único, por lo que un contenido similar les dificulta decidir qué versión indexar.
Como las páginas de contenido similar "compiten" entre sí, esto afecta negativamente al rendimiento de todas ellas. Por eso debes evitar el contenido duplicado.
Asegúrese de que su página tiene valor
No es probable que Google indexe las páginas de baja calidad, ya que no aportan valor al usuario. Por lo tanto, si no hay ningún problema técnico que explique el fallo de indexación, la razón podría ser la falta de valor del contenido.
Pregúntese si la página es valiosa y si vale la pena hacer clic en ella. Si no es así, habría que mejorar su contenido. Tenga siempre presente la intención del usuario.
Como puede ver, se trata de comprobar que no hay problemas técnicos que dificulten la indexación de la página. Y una vez descartado esto, hay que ver si aporta valor al usuario.
Última actualización el 7 de junio de 2021 por Hannah Dango