Salve a tutti,
premetto che ho provato a googlare un po' per trovare da solo la risposta, ma ho trovato spunti anche troppo tecnici.
avrei una domanda, e spero non sia la 500esima volta che viene affrontata.
Se ho ben capito, tramite il comando "file_get_contents" è possibile reperire il sorgente delle pagine web a patto che esse figurino nella whitelist, come nel caso di wikipedia ad esempio...
Quello che non mi è chiaro è il motivo per il quale solo alcuni "siti" compaiano su questa whitelist.
Mi spiego: se io volessi recuperare il sorgente di una determinata pagina con il comando file_get_contents, in alcuni casi come detto non lo potrei fare, però se da browser chiedessi di visualizzare il sorgente della stessa pagina, riuscirei poi ad ottenere quello di cui ho bisogno (magari con copia e incolla, salvandolo su un file).
A parte doverlo fare a mano, il risultato non è comunque lo stesso?
E' questo che non riesco a capire; non è che lo ritenga ingiusto, è che proprio ve lo chiedo. :)
E' per caso vietato prelevare parti di HTML da altri siti? se così fosse non mi spiegherei la possibilità di poter visualizzare il sorgente da browser.
Spero di essere stato chiaro, come spero sia chiara la mia ignoranza in materia ;)
Grazie per la lettura