aspirateur de site web

j’aimerai aspiré un site « plyrics.com » sur mon pc pour pouvoir avoir toutes les paroles dispo sur mon pc hors-connexion. Quelqu’un connait t’il un logiciel (gratuit) qui sait faire ca facilement ?

j’en avait un il y a 7 ou 6 ans , j’aspiré les site de Q

VOILA, et nib aussi…

non mais tu as matté sur google ? ou je sais pas telecharger.com ?

ca devient de plus en plus compliqué d’aspirer els sites web, surtout ceux en php+base de donnée car la page est gerée en fonction de la demande du client donc elle n’est pas veritablement présente sur le site.

Sinon, à l’epoque ou (moi aussi…) on pouvait aspirer facilement les sites de cul depuis la fac, yavait Teleport Pro qui etait pas mal.
Sinon, meme internet explorer sait le faire :
Tu bookmark le site que tu veux aspirer et tu choisis « rendre disponible hors connexion » aprés t’as des options sur le nombre de liens à suivre blablabla…

Il reste aussi le trés puissant « wget » en ligne de commande sous *nix qui avec l’option -R te permet de ramener tout l’internet sur ton PC ;-p
Il existe un portage sous windows aussi je crois.

En esperant t’avoir aidé.

ben j’ai est pris plusieur, mais soit je suis nul soit c de la merde.
Ca aspire pas tout, les liens marches pas trop bien.

j’ai pris teleport pro et eCatch…

balance l’url de ce que tu veux aspirer

http://www.plyrics.com tout le site :slight_smile: .j(ai pris HTracks là, et ca a l’air de fonctionner… wait and see

Bon ca marche. voilà le programme utilisé si ca interesse des gens:

http://download.httrack.com/httrack-3.33.exe

en plus il est open source