Visualizzazione risultati 1 fino 21 di 21

Discussione: Esiste uno script per bloccare netvampire e simili?

  1. #1
    Guest

    Predefinito Esiste uno script per bloccare netvampire e simili?

    Salve...vorrei sapere se esiste uno script, che mi consente di bloccare ai programmi che "copiano" i siti web. Nel mio caso, mi serve che non copino i download (zip).
    Perchè la restante parte del sito è in php...e non si copia!
    Voi sapete qualcosa in merito?

  2. #2
    L'avatar di softweb
    softweb non è connesso Utente giovane
    Data registrazione
    16-01-2004
    Residenza
    127.0.0.1
    Messaggi
    91

    Predefinito

    se ho capito bene non penso che tu possa bloccare la cosiddetta copia....
    questi programmi è come se guardassero tutte le tue pagine e le salvassero sul pc....
    non puoi impedire di guardare le tue pagine, altrimenti sarebbe impossibile navigare nel tuo sito....
    Per i file zip, è lo stesso se un utente li puio scaricare allora puo farlo anche il programma...(sempre se c'è il link naturalmente)
    Il web è libero... se metti i link ai tuoi file per eseguire il download, perchè non vuoi che questio programmi li scarichino?????
    Ultima modifica di softweb : 13-08-2005 alle ore 16.06.16
    Softweb.altervista.org

    Software - Sfondi - Emulazione - Guide - Tutorial e tanto altro

  3. #3
    Guest

    Predefinito

    Evidentemente Computerman vorrebbe evitare che qualcuno copi spudoratamente i contenuti del suo sito. In ogni caso concordo con quanto affermato da softweb: dubito si possa impedire l'uso di applicativi del genere (anche perché non è detto che vengano usati per scopi errati).

  4. #4
    Guest

    Predefinito

    Già... se non sbaglio esiste uno script per non far cliccare con il pulsante destro ma si può aggirare facilmente... (basta disattivare il javascript)

  5. #5
    Ospite Guest

    Predefinito

    Citazione Originalmente inviato da AmeHomePage
    Già... se non sbaglio esiste uno script per non far cliccare con il pulsante destro ma si può aggirare facilmente... (basta disattivare il javascript)
    non c'entrano nulla su quanto citato da computerman OLD

  6. #6
    Guest

    Predefinito

    beh con quello script si può tentare di proteggere alcuni contenuti delle pagine...ma come ho detto non serve a molto

  7. #7
    Guest

    Predefinito

    A questo punto conviene essere per i contenuti 100% free... ;-)

  8. #8
    Guest

    Predefinito

    si può semplicemente inserire i files nel database e creare uno scriptino di accesso a tali file
    così lo zip non sarebbe direttamente scaricabile
    (magari si potrebbe anche aggiungere qualche feature che sbatta la porta in faccia a useragent tipo netvampire & similia)

    mavericck
    Ultima modifica di mavericckweb : 13-08-2005 alle ore 20.19.03

  9. #9
    Guest

    Predefinito

    A beh, un po' come quando in Php-Nuke permetti i downloads ai soli utenti registrati (Però ci sono i bot che si registrano...).

  10. #10
    Guest

    Predefinito

    io sapevo ke cn il robots.txt i file nn vengono scarikati(almeno da alcuni programmi come httrack)

  11. #11
    Ospite Guest

    Predefinito

    già, secondo me jos ha ragione .. lo avevo pensato pure io [ volevo anche provare ma dopo mi è passata la voglia] ..

    prova a disabiltare con robots.txt la cartella in cui tieni gli zip ...

    tentare un nuoce

  12. #12
    poske non è connesso Altervistiano Junior
    Data registrazione
    06-02-2005
    Messaggi
    620

    Predefinito

    Citazione Originalmente inviato da ModdingWorld
    già, secondo me jos ha ragione .. lo avevo pensato pure io [ volevo anche provare ma dopo mi è passata la voglia] ..

    prova a disabiltare con robots.txt la cartella in cui tieni gli zip ...

    tentare un nuoce
    Secondo me non serve a molto... se esistono dei programmi con lo scopo di copiare i contenuti di un sito non penso che questi facciano caso alla presenza di robots.txt anzi... non lo leggono proprio!

  13. #13
    Ospite Guest

    Predefinito

    bè ma non è detto ..

    non sono sicuro che possa funzionare , pero' tentar non nuoce...

    e magari fare qualcosa con gli .htaccess ?

    ci deve essere un modo per limitare l' accesso a determinata cartella..*_penso_*

  14. #14
    L'avatar di softweb
    softweb non è connesso Utente giovane
    Data registrazione
    16-01-2004
    Residenza
    127.0.0.1
    Messaggi
    91

    Predefinito

    questo sembra fare al caso di computerman...
    http://pro.html.it/articoli/id_136/idcat_28/pro.html

    [EDIT]
    il problema è che ci vorrebbe un bel database di tutti gli user-agent dei netvampire + conosciuti, così da poter creare un file robots.txt davvero efficace!!!!!
    Ultima modifica di Taitaonline : 14-08-2005 alle ore 13.40.05 Motivo: Cerchiamo di usare la funzione "edita", grazie.
    Softweb.altervista.org

    Software - Sfondi - Emulazione - Guide - Tutorial e tanto altro

  15. #15
    Guest

    Predefinito

    Intanto vi ringrazio delle risposte...
    L'idea non è quella di bloccare chi preleva i miei contenuti...io sono da sempre per il "tutto a tutti". Ma il problema nasce quando vengono sfruttate moltissime risorse...e mi ritrovo con banda "occupata".
    A me non da grossi problemi, perchè cmq non la finisco, ma vorrei ottimizzare al meglio il servizio che offro e fermare i "rapaci"!

    [EDIT]
    Perfetto...ho letto tutto l'articolo e sembra faccia al caso mio...e poi ho anche capito a cosa serve il file robots ;)
    Grazie a tutti della collaborazione
    Ultima modifica di Taitaonline : 19-08-2005 alle ore 11.49.07 Motivo: Cerchiamo di usare la funzione "edita", grazie.

  16. #16
    Guest

    Predefinito

    Beh se il problema è la banda non credo ti debba preoccupare... (a meno che il tuo sito non abbia davvero TANTE visite..) io non ho mai avuto problemi...

  17. #17
    Guest

    Predefinito

    Be diciamo che ne consumo mediamente 2 gb al mese...ma mi da fastidio "sfruttare" le risorse che so potrebbero essere migliorate per il bene di tutti!
    Ora però stavo notando un problema...ehm...come li vedo i log che l'articolo menzionava?

    [EDIT]

    Aggiornamento:
    Ho provato a modificare il file robots.txt del phpnuke, ma le cartelle aggiunte non le limita, mentre quelle del nuke sì.
    Cosa strana...se cancello quel file...continua a limitarle quelle cartelle.
    A questo punto...mi sorge un dubbio...ci sono altri sistemi per limitarle? Ovviamente senza mettere password...altrimenti chi prova a scaricare delle cose contenute in quelle cartelle (usando il mio sito) non funziona.
    Idee?
    __________________
    Ultima modifica di Taitaonline : 19-08-2005 alle ore 11.51.03 Motivo: Cerchiamo di usare la funzione "edita", grazie.

  18. #18
    L'avatar di Evcz
    Evcz non è connesso Utente storico
    Data registrazione
    31-05-2002
    Residenza
    Vicenza
    Messaggi
    5,670

    Predefinito

    se hai attivo il mod_rewrite può essere un buon passo...

    i programmini più seri però si mascherano da browser normale ed è quindi difficile beccarli...

    ti posto una base da cui partire:

    Codice:
    RewriteEngine on
    
    RewriteCond %{HTTP_USER_AGENT} ^Alexibot                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^asterias                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^BackDoorBot             [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Black.Hole              [OR]
    RewriteCond %{HTTP_USER_AGENT} ^BlackWidow              [OR]
    RewriteCond %{HTTP_USER_AGENT} ^BlowFish                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^BotALot                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^BuiltBotTough           [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Bullseye                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^BunnySlippers           [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Cegbfeieh               [OR]
    RewriteCond %{HTTP_USER_AGENT} ^CheeseBot               [OR]
    RewriteCond %{HTTP_USER_AGENT} ^CherryPicker            [OR]
    RewriteCond %{HTTP_USER_AGENT} ^ChinaClaw               [OR]
    RewriteCond %{HTTP_USER_AGENT} ^CopyRightCheck          [OR]
    RewriteCond %{HTTP_USER_AGENT} ^cosmos                  [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Crescent                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Custo                   [OR]
    RewriteCond %{HTTP_USER_AGENT} ^DISCo                   [OR]
    RewriteCond %{HTTP_USER_AGENT} ^DittoSpyder             [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Download\ Demon         [OR]
    RewriteCond %{HTTP_USER_AGENT} ^eCatch                  [OR]
    RewriteCond %{HTTP_USER_AGENT} ^EirGrabber              [OR]
    RewriteCond %{HTTP_USER_AGENT} ^EmailCollector          [OR]
    RewriteCond %{HTTP_USER_AGENT} ^EmailSiphon             [OR]
    RewriteCond %{HTTP_USER_AGENT} ^EmailWolf               [OR]
    RewriteCond %{HTTP_USER_AGENT} ^EroCrawler              [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Express\ WebPictures    [OR]
    RewriteCond %{HTTP_USER_AGENT} ^ExtractorPro            [OR]
    RewriteCond %{HTTP_USER_AGENT} ^EyeNetIE                [OR]
    #RewriteCond %{HTTP_USER_AGENT} ^FlashGet                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Foobot                  [OR]
    RewriteCond %{HTTP_USER_AGENT} ^FrontPage               [NC,OR]
    #RewriteCond %{HTTP_USER_AGENT} ^GetRight                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^GetWeb!                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Go-Ahead-Got-It         [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Googlebot-Image         [OR]
    #RewriteCond %{HTTP_USER_AGENT} ^Go!Zilla                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^GrabNet                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Grafula                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Harvest                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^hloader                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^HMView                  [OR]
    RewriteCond %{HTTP_USER_AGENT} ^httplib                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^HTTrack                 [NC,OR]
    RewriteCond %{HTTP_USER_AGENT} ^humanlinks              [OR]
    RewriteCond %{HTTP_USER_AGENT} ^ia_archiver             [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Image\ Stripper         [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Image\ Sucker           [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Indy\ Library           [NC,OR]
    RewriteCond %{HTTP_USER_AGENT} ^InfoNaviRobot           [OR]
    RewriteCond %{HTTP_USER_AGENT} ^InterGET                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Internet\ Ninja         [OR]
    RewriteCond %{HTTP_USER_AGENT} ^JennyBot                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^JetCar                  [OR]
    RewriteCond %{HTTP_USER_AGENT} ^JOC\ Web\ Spider        [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Kenjin.Spider           [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Keyword.Density         [OR]
    RewriteCond %{HTTP_USER_AGENT} ^larbin                  [OR]
    RewriteCond %{HTTP_USER_AGENT} ^LeechFTP                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^LexiBot                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^libWeb/clsHTTP          [OR]
    RewriteCond %{HTTP_USER_AGENT} ^LinkextractorPro        [OR]
    RewriteCond %{HTTP_USER_AGENT} ^LinkScan/8.1a.Unix      [OR]
    RewriteCond %{HTTP_USER_AGENT} ^LinkWalker              [OR]
    RewriteCond %{HTTP_USER_AGENT} ^lwp-trivial             [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Mass\ Downloader        [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Mata.Hari               [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Microsoft.URL           [OR]
    RewriteCond %{HTTP_USER_AGENT} ^MIDown\ tool            [OR]
    RewriteCond %{HTTP_USER_AGENT} ^MIIxpc                  [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Mister.PiX              [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Mister\ PiX             [OR]
    RewriteCond %{HTTP_USER_AGENT} ^moget                   [OR]
    #RewriteCond %{HTTP_USER_AGENT} ^Mozilla/2               [OR]
    #RewriteCond %{HTTP_USER_AGENT} ^Mozilla/3.Mozilla/2.01  [OR]
    #RewriteCond %{HTTP_USER_AGENT} ^Mozilla.*NEWT           [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Navroad                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^NearSite                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^NetAnts                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^NetMechanic             [OR]
    RewriteCond %{HTTP_USER_AGENT} ^NetSpider               [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Net\ Vampire            [OR]
    RewriteCond %{HTTP_USER_AGENT} ^NetZIP                  [OR]
    RewriteCond %{HTTP_USER_AGENT} ^NICErsPRO               [OR]
    RewriteCond %{HTTP_USER_AGENT} ^NPBot                   [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Octopus                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Offline.Explorer        [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Offline\ Explorer       [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Offline\ Navigator      [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Openfind                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^PageGrabber             [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Papa\ Foto              [OR]
    RewriteCond %{HTTP_USER_AGENT} ^pavuk                   [OR]
    RewriteCond %{HTTP_USER_AGENT} ^pcBrowser               [OR]
    RewriteCond %{HTTP_USER_AGENT} ^ProPowerBot/2.14        [OR]
    RewriteCond %{HTTP_USER_AGENT} ^ProWebWalker            [OR]
    RewriteCond %{HTTP_USER_AGENT} ^ProWebWalker            [OR]
    RewriteCond %{HTTP_USER_AGENT} ^QueryN.Metasearch       [OR]
    RewriteCond %{HTTP_USER_AGENT} ^ReGet                   [OR]
    RewriteCond %{HTTP_USER_AGENT} ^RepoMonkey              [OR]
    RewriteCond %{HTTP_USER_AGENT} ^RMA                     [OR]
    RewriteCond %{HTTP_USER_AGENT} ^SiteSnagger             [OR]
    RewriteCond %{HTTP_USER_AGENT} ^SlySearch               [OR]
    RewriteCond %{HTTP_USER_AGENT} ^SmartDownload           [OR]
    RewriteCond %{HTTP_USER_AGENT} ^SpankBot                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^spanner                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^SuperBot                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^SuperHTTP               [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Surfbot                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^suzuran                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Szukacz/1.4             [OR]
    RewriteCond %{HTTP_USER_AGENT} ^tAkeOut                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Teleport                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Teleport\ Pro           [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Telesoft                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^The.Intraformant        [OR]
    RewriteCond %{HTTP_USER_AGENT} ^TheNomad                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^TightTwatBot            [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Titan                   [OR]
    RewriteCond %{HTTP_USER_AGENT} ^toCrawl/UrlDispatcher   [OR]
    RewriteCond %{HTTP_USER_AGENT} ^toCrawl/UrlDispatcher   [OR]
    RewriteCond %{HTTP_USER_AGENT} ^True_Robot              [OR]
    RewriteCond %{HTTP_USER_AGENT} ^turingos                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^TurnitinBot/1.5         [OR]
    RewriteCond %{HTTP_USER_AGENT} ^URLy.Warning            [OR]
    RewriteCond %{HTTP_USER_AGENT} ^VCI                     [OR]
    RewriteCond %{HTTP_USER_AGENT} ^VoidEYE                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^WebAuto                 [OR]
    RewriteCond %{HTTP_USER_AGENT} ^WebBandit               [OR]
    RewriteCond %{HTTP_USER_AGENT} ^WebCopier               [OR]
    RewriteCond %{HTTP_USER_AGENT} ^WebEMailExtrac.*        [OR]
    RewriteCond %{HTTP_USER_AGENT} ^WebEnhancer             [OR]
    RewriteCond %{HTTP_USER_AGENT} ^WebFetch                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^WebGo\ IS               [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Web.Image.Collector     [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Web\ Image\ Collector   [OR]
    RewriteCond %{HTTP_USER_AGENT} ^WebLeacher              [OR]
    RewriteCond %{HTTP_USER_AGENT} ^WebmasterWorldForumBot  [OR]
    RewriteCond %{HTTP_USER_AGENT} ^WebReaper               [OR]
    RewriteCond %{HTTP_USER_AGENT} ^WebSauger               [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Website\ eXtractor      [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Website.Quester         [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Website\ Quester        [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Webster.Pro             [OR]
    RewriteCond %{HTTP_USER_AGENT} ^WebStripper             [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Web\ Sucker             [OR]
    RewriteCond %{HTTP_USER_AGENT} ^WebWhacker              [OR]
    RewriteCond %{HTTP_USER_AGENT} ^WebZip                  [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Wget                    [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Widow                   [OR]
    RewriteCond %{HTTP_USER_AGENT} ^[Ww]eb[Bb]andit         [OR]
    RewriteCond %{HTTP_USER_AGENT} ^WWW-Collector-E         [OR]
    RewriteCond %{HTTP_USER_AGENT} ^WWWOFFLE                [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Xaldon\ WebSpider       [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Xenu's                  [OR]
    RewriteCond %{HTTP_USER_AGENT} ^Zeus
    
    RewriteRule ^.*$ /errors/403.php  [L]
    Ultima modifica di Evcz : 18-08-2005 alle ore 20.11.38
    There are three kinds of people in this world: people who watch things happen ... people who complain about things that happen ... and people who make things happen...

  19. #19
    Guest

    Predefinito

    Prima di tutto di ringrazio della risposta...quel codice che hai scritto dove lo dovrei mettere?
    E cmq a me va bene anche bloccare tutto, browser compresi per una determinata cartella. Bloccata quella cartella sono a cavallo :winkOLD:
    Quindi se mi puoi dare qualche info in + su quello che hai scritto che vedo di capire come fare OLD

  20. #20
    L'avatar di Evcz
    Evcz non è connesso Utente storico
    Data registrazione
    31-05-2002
    Residenza
    Vicenza
    Messaggi
    5,670

    Predefinito

    quel codice lo devi scrivere dentro un htaccess (ovviamente devi abilitare gli htaccess (possibile solo dal nuovo pannello :/)...

    quelle righe servono per bloccare l'accesso a tutti i "programmi" la elencati :)
    There are three kinds of people in this world: people who watch things happen ... people who complain about things that happen ... and people who make things happen...

  21. #21
    Guest

    Predefinito

    Avevo provato anche la soluzione "Deny from all" nell' htaccess solo che neanche via phpnuke riesco a prenderli. Io pensavo che bloccando la visualizzazione via browser...da "server", cioè facendo eseguire la richiesta del download da uno script che gira sulla macchina la limitazione fosse aggirata. Invece nisba.
    Ho provato anche "Deny from Mozilla/4.0" ma mi ritorna un errore di "misconfiguration" o na roba simile...credo che alla fine userò il tuo sistema :P
    Grazie del tuo aiuto ;)

Regole di scrittura

  • Non puoi creare nuove discussioni
  • Non puoi rispondere ai messaggi
  • Non puoi inserire allegati.
  • Non puoi modificare i tuoi messaggi
  •