Google non recupera il file Robots.txt
Buongiorno a tutti,
negli ultimi 3 mesi il mio sito https://coralriff.altervista.org/ ha avuto un tonfo nelle statistiche. Siamo passati improvvisamente dalle circa 3 mila al giorno alle 5/600.
Ho cercato di capire durante tutto il tempo quale fosse il problema e, tra le varie cose, sono andato a controllare sulla Search Console di Google se fosse tutto ok. Non è tutto ok.
Ho notato di non aver ancora aggiunto il sito in versione https e quindi l'ho fatto ma quando sono arrivato al test del file robots.txt ho ricevuto questo messaggio:
Citazione:
Al momento non è possibile recuperare il tuo file robots.txt. In questi casi, interrompiamo la scansione del sito finché riusciamo a recuperare un file robots.txt, oppure torniamo all'ultimo file robots.txt ritenuto valido.
Sono andato a controllare ed il file robots.txt c'era ma visto che non funzionava ho provato a rigenerarlo ed ora eccolo qui: https://coralriff.altervista.org/robots.txt
Ho anche disabilitato la funzionalità delle sitemap di Yoast e creato un'altra sitemap:
https://coralriff.altervista.org/sitemap.xml
Ora, non riesco a capire se per caso il fatto che Google non riesca a recuperare questo file sia dovuto all'https o quale altro sia il problema.
A questo punto ho provato a vedere se per caso il problema fosse Cloudflare, visto che da quando è entrato nella mia vita non fa altro che crearmi rogne che mi fanno perdere un mare di tempo. Ho cercato gli indirizzi ip dei crawler di Google per aggiungerne i range in Whitelist ma non so come si faccia ad aggiungere i range invece che i singoli indirizzi ip e sul sito di Cloudflare (mortacci loro) non ci sono istruzioni a riguardo.
Qualcuno sa darmi una mano?
Grazie