Un robots.txt puede costar 10.000 dólares

Autor: Armonth | El martes 24 de julio del 2007 @ 18:12.

Poco a poco las webs van dedicando parte de sus esfuerzos a la eliminación del contenido duplicado (y 2), siendo la forma más habitual el uso de un fichero robots.txt.

Pero a SEOBook se le ha ido la mano al usar comodines y las consecuencias no se han hecho esperar, aunque corrigió el error inmediatamente Google ha sido más rápido que él y ha añadido a su lista de resultados suplementarios varias páginas reduciendo mucho su tráfico y haciéndole perder 10.000$.

Creo que estamos ante uno de los ficheros robots.txt más caro de la historia, al menos de la conocida y es que no muchos reconocen sus errores :-P.

Comentarios