Esiste un meccanismo per la discriminazione dei browsers che varia il contenuto erogato a seconda dei casi?
Quali sono i robot a cui fai riferimento?
Ecco qualcosa che può essere connesso con questo problema: http://dev.rubyonrails.com/ticket/2139 dal momento che sembra essere legato prevalentemente ai robot.
è come se ad un certo punto decidesse di smettere di scaricare il codice e quindi di lasciare la pagina in sospeso, cmq mi riferisco a w3c, che non si riesce a collegare.
Lo so che il problema si verifica solo con il mio browser e che negli altri non si nota, ma c'è e non riesco capirne il motivo, non vorrei che tutt'un tratto smettesse di funzionare.
Ho editato il mio post nell'istante in cui hai risposto.
Quello che ti consiglio di fare è di giocare con le impostazioni del tuo blog e fare relativi test sui robot che hanno presentato il problema tenendo a mente i cambiamenti apportati fino ad arrivare ad una condizione di funzionamento anche con i medesimi.
Purtroppo non possiamo andar molto oltre a questo dal momento che non abbiamo la possibilità di fare dei test approfonditi sul software che usi.
Ovviamente, acquisite le informazioni puoi esporle qui in modo che possano eventualmente essere usate per risolvere, se esiste, un problema lato server.
quasi mi dispiace dirlo ma sembra che il problema si sia risolto da solo.
ho ri-uplodato la home e relativi png e css e il problema non consisteva già più. Non riesco a capire cosa sia capitato.