Ok, ora ho un po' più di tempo per dilungarmi sull'argomento.
La sitemap va inviata ai motori di ricerca
una volta, e basta. E non una volta ogni pagina aggiunta, o una volta ogni aggiornamento.
Una volta, quando la si crea. Poi l'importante è
tenerla aggiornata.
E' un po' come il form con cui avvisi Google dell'esistenza di un sito. Lo usi, e poi fine, il motore di ricerca farà da se.
Questo è un discorso strano, che non condivido, ma può avere un senso: se tu cambi (parecchio) una pagina, ci vorranno un po' di giorni prima che il cambiamento si rifletta sui motori di ricerca. In questo lasso di tempo i risultati ottenuti dagli utenti del motore non corrispondono con ciò che vedono una volta arrivati sul sito - e ciò non è bene, perché gli passa la voglia di visitarlo.
Flash è un problema, si, perché ciò che è dentro un filmato flash è in generale irraggiungibile dai motori di ricerca, e quindi non verrà indicizzato. Flash è nato per creare elementi aggiuntivi alle pagine, non per esserne l'unico componente, e come tale va usato - ogni pagina deve essere completa anche togliendo tutto il flash in essa.
A chi sviluppa siti interamente in flash, pongo sempre questa domanda:
"Perché il sito dei creatori di Flash non è tutto in Flash?"
Per quanto riguarda pagine dinamiche (php/asp) un tempo i motori le consideravano diversamente, adesso mi sembra che siano a pari livello, ma pagine con query
get potrebbero essere considerate "dinamiche" e quindi indicizzare con minor priorità. Motivo per cui creare un sito tutto attorno ad una pagina
index.php?id=... è una pessima idea: l'url non fornisce più alcun indizio sul contenuto della pagina, perdendo valore davanti al motore di ricerca e ancora di più di fronte all'utente, che non se lo ricorderà mai.
Intermezzo: trovo che accessibilità e SEO siano due obbiettivi molto vicini fra loro. In entrambi i casi si tratta di rendere tutto il contenuto di un sito visibile ad un sistema automatico limitato, capace di comprendere in fondo solo testo, link e un po' di html.
Altro problema importante delle pagine create dinamicamente è che devono essere raggiungibili via link. C'è un buon esempio che rende evidente questo problema: metti che io creo un meraviglioso dizionario online, pieno di definizioni, e con una home page simile a quella di Google: un singolo campo di testo e un pulsate per cercare nel dizionario. Poiché un motore di ricerca
non può per mille motivi riempire il campo e provare a cercare delle parole, il mio dizionario non verrà
mai indicizzato. Nel momento in cui aggiungo un indice o una serie di pagine A-Z, ecco tutto appare al motore di ricerca.
Di nuovo, javascript non è fatto per generare pagine, oltre un certo limite. Ogni pagina dovrebbe essere completa e perfetta anche senza, poi se vuoi lo aggiungi per rendere la navigazione più interessante e veloce, ma dev'essere un
di più. Link nascosti da javascript sono la cosa peggiore, quando non sono combinati correttamente:
Codice HTML:
<a href="pagina.php" onclick="apri(pagina.php); return false">Pagina</a>
Se il js non è attivo, il link funziona lo stesso, se è presente, viene eseguito, ed il valore di ritorno
false evita che l'
href venga seguito.
In tutti gli eventi on...., restituire un valore false evita l'esecuzione dell'azione di default corrispondente all'evento. Questo è soprattutto importante nel caso dei form e di onsubmit - ritornare false evita l'invio dei dati, e questo permette di creare javascript che controllano i campi prima dell'invio.
Questo non saprei, dovrei leggere l'articolo, ma se si traduce in "non essere dispersivo" non è una cattiva idea. Se hai poco contenuto e lo metti in mille pagine (tipo due paragrafi per pagina) i motori di ricerca non avranno abbastanza dati per indicizzare correttamente la pagina.
Saggio. Il tag più importante è probabilmente
description, perché rappresenta ciò che apparirà nel motore di ricerca sotto il titolo. Se il tag non è presente, o se
è uguale per troppe pagine, google genera una descrizione in base al contenuto della pagina stessa. Il tag
keyword ha ormai importanza limitata, perché troppa gente ne ha abusato. Un numero limitato di keyword sensate per la pagina in particolare è comunque la scelta migliore.
mboh. Personalmente sono scettico nei confronti di siti con ammassi di link, ma può darsi che aiutino. Male di certo non faranno, ma se tutti i siti sono nelle directory, diventa inutile, quindi per me non vale lo sbattimento.