Visualizzazione risultati 1 fino 5 di 5

Discussione: Problema upload del db se le tabelle sono troppo grandi

  1. #1
    Guest

    Predefinito

    Ho un portale php nuke, quando faccio il bkup ottengo tabelle che singolarmente sono piuttosto grandi , come quella dei msg del forum che è di circa 10 MB. che da sola scarico in 2 minuti. Poi, quando si tratta di ricaricarle il phpmyadmin non ce la fa..quelle piccole le ricarica senza problemi , quella con i testi dei messaggi del forum no. Credo sia un problema di phpmyadin perchè anche in locale è la stessa cosa. In alcuni casi in fondo alle tabelle c'è il messaggio che il tempo ha superaro i 15 secondi ecc ,
    br />
    <b>Fatal error</b>: Maximum execution time of 15 seconds exceeded in <b>/membri2/viali/my_admin/libraries/mysql_wrappers.lib.php</b> on line <b>92</b><br />


    ma non sempre ..in ogni caso, che teminino o no con questa riga, le tabelle grandi non vengono caricate.

    C'è una soluzione a questo problema tecnico? Ho provato a spezzare il backup ma non serve perchè sono delle singole tabelle intere ad esser enormi.

  2. #2
    Guest

    Predefinito

    Ho trovato nell'archivo di questo forum altri che hanno posto in evidenza questo problema, ma nessuna risposta, ..nessun sa come è possibile ricaricare le tabelle del DB qundo sono enormi? Ho sentito che si può fare pezzo per pezzo con uno script ...qualcuno se sa di più ? :(

  3. #3
    L'avatar di Gianluca
    Gianluca non è connesso Amministratore
    Data registrazione
    15-02-2001
    Messaggi
    18,035

    Predefinito

    Prova a cercare in questa sezione, c'era un piccolo tutorial che avevo scritto io per scaricare tabelle di qualsiasi dimensione, si può applicare all'inverso.

    Il tutto sta nel fare il dump spezzettandolo in più parti e poi caricando un file per volta.
    Gianluca

  4. #4
    Guest

    Predefinito

    Grazie sei stato prezioso...riporto qui anche per chi avesse un problema simile.
    Se ho capito per ricaricare poi le tabelle si procede così': con phpmyadmin faccio la query della prima che che contiene olte le priem tot righe anche la struttura, poi la query della seconda ecc..naturalmente questo è valido se ogni query aggiunge i dati e non me li cancella..ma è così :-( ? Prima di fare un pasticcio vorrei una conferma...



    Inviato: 26 Gen 2004 19:14 Soggetto:

    --------------------------------------------------------------------------------



    Prendi phpmyadmin, cerchi la tabella che ti interessa, clicchi su proprietà, a quel punto nei links sopra devi cliccare su "esporta".

    Verrà fuori un menù piuttosto complesso, lì potrai notare nella sezione "Dati" che c'è la possibilità di esportare la tabella a pezzi.


    Supponiamo che tu voglia spezzare in due la tabella (10.000 righe per semplicità):

    Per il primo dump devi selezionare "Struttura e dati", spuntare la casella "inserimenti completi" (agevola il ripristino) nonchè decidere la dimensione del frammento, ad esempio puoi fare il dump di 5000 righe partendo dalla riga 0.
    Per il secondo scegli "Solo dati", lasciando "inserimenti completi", impostare il dump di 5000 righe partendo dalla riga 5000 ovviamente dovrai chiamare il file che ne viene fuori con un altro nome, magari aggiungendo un numero crescente.

    Con questo sistema potrai esportare e ripristinare tabelle praticamente di qualsiasi dimensione senza problemi.

    Tempo permettendo farò un piccolo tutorial
    :? :?

  5. #5
    Guest

    Predefinito

    Ciao viali,
    anch'io tempo fa ho avuto problemi simili ai tuoi e li ho risolti utilizzando un piccolo (ma grandioso) script php che esegue dump di grandi dimensioni in un attimo e senza incontrare problemi di execution time o memory_limit.
    Lo script si chiama bigdump.php e lo puoi scaricare da http://www.ozerov.de/bigdump.php.
    Fammi sapere che ne pensi 8)

Regole di scrittura

  • Non puoi creare nuove discussioni
  • Non puoi rispondere ai messaggi
  • Non puoi inserire allegati.
  • Non puoi modificare i tuoi messaggi
  •