6 formas de desindexar una url de Google

Desindexar

Indexar las urls de nuestras webs, es un punto clave para lograr posicionarnos en los resultados de búsqueda. ¿Pero qué pasa si lo que queremos es eliminar urls de Google? ¿Es posible? ¿Podemos hacerlo nosotros o dependemos de lo que decida el motor de búsqueda?

Pues efectivamente podemos hacerlo, se llama desindexar urls, y vamos a explicarte las diferentes formas de lograrlo.

¿Para qué desindexar una url de Google?

Entre los motivos más comunes que podemos destacar:

  1. Eliminar urls antiguas, bien porque se hayan quedado desactualizadas, bien porque ya no tengan aplicación, etc.,
  2. Eliminar urls que puedan ocasionar problemas tales como Thin Content (contenido de baja calidad)
  3. Eliminar urls de plantillas. Es muy común cuando montamos una web desde un tema que se queden indexadas páginas de ejemplo con contenido tipo «Lorem Ipsum» o similar, que se puede llegar a indexar y luego tenemos que eliminarlo.
  4. Urls con idéntico contenido. Es cierto que se pueden utilizar canonical o redirecciones para esto, pero muchas veces es más recomendable eliminarlas.

Diferentes formas de desindexar una url

Existen básicamente 6 grandes formas de eliminar urls de Google:

1) Añadiendo la etiqueta noindex en la url

El atributo noindex le dice a Google que no indexe la url en cuestión. Es un método válido pero presenta una serie de aspectos que debemos tener en cuenta

  • No es inmediato. No pensemos que nada más ponerla ocurrirá. Depende de cuando Google pase de nuevo por la url. En sitios donde el rastreo sea muy alto, grandes webs, que pasen mucho los crawlers, ocurrirá antes, pero de no ser así, pueden pasar semanas hasta que Google la desindexe.
  • Si lo añadimos en urls de nueva creación, Google por norma general, no las indexará.
  • Hay que tener en cuenta que el atributo noindex no es una obligación, puede ser que Google no lo tenga en cuenta. Es raro que esto ocurra, pero debemos tenerlo en cuenta.

2) Utilizando la nueva herramienta para desindexar de Search Console

Este es el método más recomendable. Google ha habilitado hace poco en Search Console una herramienta para eliminar las urls. La podemos ver en esta sección:

desindexar Urls
En el menú de la izquierda en la sección “índice” tenemos la opción de “retirada de Urls”.

Una vez hacemos clic en ese menú, llegamos a la siguiente pantalla:

desindexar Urls Search Console

Desde donde podremos hacer clic en nueva solicitud y retirar una url específica o retirar las urls que tengan un prefijo determinado:

Como desindexar Urls

Nota importante: Hay que destacar que esto es una retirada temporal de urls. Una vez que Google aprueba nuestra solicitud, esta retirada dura unos seis meses. Tras este período la url puede volver a ser indexada por Google si el motor de búsqueda interpreta mediante señales que le permitan rastrearla.

¿Se puede cancelar una solicitud de desindexación?

Cuando la realizamos con la herramienta de Search Console, sí podemos dar marcha atrás. Tan solo debemos entrar en el menú de la misma forma que si quisiéramos eliminar alguna y buscar en el historial la solicitud. Aparecerá un menú de 3 puntos en el cual podremos “cancelar solicitud”.

3) Añadir un status code 404

Es decir, que cuando realicen una petición al servidor de dicha url este debe devolver un código de error 404, de esta manera le estaremos diciendo a Google que esa url ya no existe.

4) Añadir un status code 410

Similar al caso anterior, pero desde el punto de vista SEO, es más efectivo para desindexar, ya que el 404 le dice que es un error, es decir, que puede ser que esa url vuelva a existir una vez se solucione el problema, mientras que con el 410 le decimos que “se ha ido” definitivamente.

5) Añadirle un bloqueo mediante contraseña

Google no podrá entrar y entenderá que es un contenido no indexable.

Importante: Bloquear una url por robots.txt no te asegura que no vaya a indexarse. Te asegura que Google no pueda leer lo que hay en ella, y por tanto que no la muestre para ninguna búsqueda en Google, pero, si por ejemplo, la enlazan desde un dominio externos, Google seguirá dicho enlace, verá que hay una url, no sabrá que hay dentro, pero la indexará porque “la habrá descubierto”.

6) Desindexar masivamente mediante Sitemap

Estos métodos que hemos explicado, nos funcionan para eliminarlas de manera individual. Pero ¿qué pasa si tenemos un gran número de urls que queremos desindexar y no tenemos tiempo de hacerlo una a una?

Existe un pequeño recurso, usado por los SEOs, que es una vez hayamos añadido bien la etiqueta noindex, bien la etiqueta 410/404, crear un sitemap SOLO con esas Urls que queremos desindexar.

Lo subimos nuevamente a la raíz, y avisamos mediante Search Console que lo revise. De esta manera estamos forzando a que Google rastree de manera más prioritaria ese conjunto de urls, con lo cual una vez vea que no son indexables, acelerará el proceso de eliminarlas.

Es importante pasado un tiempo y comprobando que se están eliminando, volver a implementar correctamente el Sitemap.

¿Dudas, sugerencias, nuevos métodos? ¡Estaremos encantados de leerte en los comentarios!


Referencias:

Sobre el autor:

Ayúdanos compartiendo este artículo por favor

Artículos relacionados

2 comentarios en «6 formas de desindexar una url de Google»

  1. A ver si puedes ayudarme. Migre una web en agosto de blogger a wordpress manteniendo dominio y urls. En el search console está el mapa nuevo y todo ok.

    El caso es que hay dias en las que el robot de google indexa o crawlea urls que pertenenecen a la versión de blogger de vista movil. Esas urls eran igual que las de versión pc pero con un «?m=0» o «?m=1» añadido al final. No entiendo por qué se sigue preguntando por esas urls cuando no hay (al menos eso creo) ningún mapa con datos antiguos. Afortunadamente tengo un 301 desde el primer momento que hace que cuando se pregunte por ellas se vaya a la nueva (eliminando el parametro).

    Hasta aquí ningún problema, pero es que hoy por ejemplo el consumo de cpu y ancho es más alto de lo aconsejable y creo que es debido a la indexación masiva de esas urls con ese parámetro antiguo junto a que el redirection tiene que estar trabajando mucho tiempo. Tengo casi comprobado que los altos consumos vienen de la mano de un log lleno de esas peticiones.

    Hay alguna manera de hacer que no se pregunten por esas urls parametrizadas? Poniendo en el robots un disallow para «/*?m=0» y «/*?m=1»? Tb he visto que existe una manera de decirle desde el console que no pregunte por páginas parametrizadas. ¿Qué me aconsejas?

    Responder

Deja un comentario

INFORMACIÓN BÁSICA SOBRE PROTECCIÓN DE DATOS