Ciao, volevo conoscere un po' meglio il robot.txt nel senso che io ho usato un generator per creare il mio robots.txt
Praticamente se ho capito bene questo file mi dovrebbe "proteggere" le sottodirectory "procida, flash, js" come da me impostate da tutti gli spider.Codice:# Robots.txt file for http://miki92.altervista.org/
User-agent: *
Disallow: /procida/
Disallow: /flash/
Disallow: /js/
Ma con questo file i miei meta tag delle pagine presenti in quelle sottodirectory vengono annullati o no? Poi vorrei chiedere se il file deve essere chiamato robot.txt o robots.txt perchè su google ne dicono di tutti e due i tipi.
