E' una domanda un po' tecnica... probabilmente non è nemmeno il forum giusto... al massimo do' da lavorare ai moderatori!! :)
Allora... volevo sapere se il backup del database (da phpmyadmin) ha un timout per il download del dump creato??
Il mio problema è che, avendo la 56K ed un databse di quasi 60Mb, da casa mi è impossibile fare il download completo del database (mi si blocca sempre intorno ai 14Mb).
Volevo sapere se è causa di un timeout per il download del file... oppure può derivare da un mancato flusso dati per qualche istante fra client e server (la mia connessione 56k non è molto stabile).
Bo... spero di essere stato chiaro... e spero esista una soluzione.
Magari appena si riesco a far funzionare la gzip non avrò più problemi... ma per ora non so che pesci pigliare!
Puoi fare un dump compresso con gzip (dopo l'ultimo aggiornamento del php è possiible), in alcuni casi si può arrivare ad un fattore di compressione del 90%, comunque in genere conviene sempre fare più dump separati, magari di 4 tabelle per volta.
Ah ma da lì il gzip è abilitato?? Bene... allora dopo faccio una prova.
Comunque non posso fare il dumb di tabelle separate perchè sono tutte piccolette eccetto una, che è quella da quasi 60Mb. Comunque farò qualche prova... al massimo, in attesa della tanto agoniata DSL, continuerò a scaricare il database dall'università!!