Suggerimento per file robots.txt
Buon pomeriggio forum. Sarei grato a chi potesse aiutarmi nel mio piccolo problema.
Ho necessità di ottimizzare il file robots.txt del mio sito per lo spider di google. Nello specifico: Ho delle url così composte:
index?keyword=....
index?pop=......
index?pagina=....
Vorrei che lo spider indicizzasse le url di tipo 3 e non prendesse in considerazione le url di tipo 1 e 2. E' corretto scrivere così:
Disallow: /*?keywords=
Disallow: /*?pop=
avete qualche suggerimento per risolvere questo problema? Ringrazio anticipatamente