Ho il seguente chiarmento da chiedere dato che è da poco che utilizzo wordpress, sul file robots.txt.....
Dopo tutte le procedure di installazione preparazione del blog, a parte pasticci per cercare il modo di fare un redirect dal miodominio.org a miodominio.altervista.org e risolti alla velocità della luce, o creato su webmaster un account del nuovo dominio posando la sitemap richiedendo di indicizzare , fino qui tutto bene a cominciato a indicizzare e cosa abbastanza strana ha quasi indicizzato tutto solo che mi sono comparsi degli " Errori di causati da URL " riportandomi la lista delle pagine non trovate defindole con "errore 404"
blog/events.xml
blog/category/senza-categoria/events.xml
blog/wp-content/uploads/2012/12/
blog/wp-content/uploads/2012/12/events.xml
Da come come ho letto, il file "Robots.txt" non è presente nelle cartelle o nella radice di wordpress, da come ho capito viene creato un file virtuale ma poi approfondendo la cosa in rete ho trovato articoli che parlavano di inserire un plugin per settare in un certo modo il file in modo da inibire o/e autorizzare la scansione blog......
e qui non ci piove, avevo esperienza sul blog precedente fatto in iWeb , peranto creavo il file nella radice e lo caricavo su webmaster e il gioco era fatto..... ma .....
adesso mi trovo spiazzato come procedere....
L' idea, è quella di scaricare e installare il plugin per settare robot.txt e inserire quei percorsi che mi ha dato come errore ma i restanti settaggi per wordpress gli dico di usare quelli di default che vengono forniti o vi è un settaggio standard o/e di base da seguire in modo da non bloccare la scansione.....
Qualcuno può darmi qualche dritta in merito al file robots.txt in wordpress e come è meglio procedere.....