Salve a tutti. Ho alcuni siti con migliaia di pagine. Premetto che ho sempre rispettato i limiti del consumo di banda. Da maggio però i siti risultano "invisibili" a googlebot: su strumenti per i webmaster la diagnostica mi restituisce l'errore "file robots.txt mancante" ( mentre invece il file esiste, ad esempio: http://www.lyricool.altervista.org/robots.txt )... Stesso discorso per altri siti... Ho aspettato 2 mesetti sperando che tutto si risolvesse, ma ancora nada ... Help me please
p.s. il problema non risiede nell'htaccess, settato ad allow from all
p.p.s. cioè vi giuro...questa è roba aliena! Guardate qui:
ASSURDO! non è che mi avete bloccato l'accesso ai miei siti da parte di google? non siete stati così cattivi vero? :-(
__________________________________________________ __________________________________________________ __________
Signori qualcuno mi aiuti perchè sono disperato! Il problema riguarda almeno 5 siti! Sono quasi certo che sia stato bloccato l'accesso a Googlebot perchè i siti contengono molte pagine (dunque molte richieste da Googlebot)... TUTTAVIA IL CONSUMO DI BANDA E' SEMPRE STATO REGOLARE! Non potete essere così cattivi da bloccare l'accesso a Googlebot senza avvisare l'utente! Che cosa vi costava mandare un messaggino? Così invece non so nulla e posso andare avanti solo per supposizioni! Qualcuno mi dia delle delucidazioni please!
E intanto l'unica cosa che posso fare è ascoltare Masini: "Quando seeeei disperatooooo" :-(
Spero di essere più chiaro così :-(