¿Cómo puedo descargar un sitio web completo?

75

Quiero descargar un sitio web completo (con subsitios). ¿Hay alguna herramienta para eso?

    
pregunta UAdapter 07.01.2011 - 15:19

8 respuestas

121

Pruebe el ejemplo 10 de aquí :

wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL
  • –mirror : activa las opciones adecuadas para duplicar.

  • -p : descargue todos los archivos que sean necesarios para mostrar correctamente un determinado Página HTML

  • --convert-links : después del descargar, convertir los enlaces en documento para visualización local.

  • -P ./LOCAL-DIR : guarda todos los archivos y directorios a la especificada directorio.
respondido por el shellholic 07.01.2011 - 15:34
37

httrack es la herramienta que está buscando.

  

HTTrack le permite descargar un sitio de la World Wide Web de Internet a un directorio local, creando recursivamente todos los directorios, obteniendo HTML, imágenes y otros archivos del servidor a su computadora. HTTrack organiza la estructura de enlace relativa del sitio original.

    
respondido por el Sid 07.01.2011 - 15:31
7

Con wget puede descargar un sitio web completo, debe usar -r cambiar para una descarga recursiva . Por ejemplo,

wget -r http://www.google.com
    
respondido por el Arthur Knopper 07.01.2011 - 15:44
5

WEBHTTRACK WEBSITE COPIER es una herramienta útil para descargar todo un sitio web en su disco duro para la navegación sin conexión. Inicie el centro de software de ubuntu y escriba "copiadora de sitio web webhttrack" sin las comillas en el cuadro de búsqueda. selecciónelo y descárguelo del centro de software en su sistema. inicie el webHTTrack desde el menú laucher o start, desde allí puede comenzar a disfrutar de esta gran herramienta para las descargas de su sitio

    
respondido por el frizeR 22.10.2012 - 03:30
3

No sé sobre subdominios, es decir, subsitios, pero wget se puede usar para obtener un sitio completo. Eche un vistazo a la pregunta sobre el superusuario . Dice que puede usar -D domain1.com,domain2.com para descargar diferentes dominios en una sola secuencia de comandos. Creo que puede usar esa opción para descargar subdominios, es decir, -D site1.somesite.com,site2.somesite.com

    
respondido por el binW 07.01.2011 - 15:31
1

Utilizo Burp - la herramienta araña es mucho más inteligente que wget, y se puede configurar para evitar secciones si es necesario. Burp Suite en sí es un poderoso conjunto de herramientas para ayudar en las pruebas, pero la herramienta araña es muy efectiva.

    
respondido por el Rory Alsop 07.01.2011 - 21:54
1

Puedes descargar todo el sitio web Comando:

wget -r -l 0 website

Ejemplo:

wget -r -l 0 http://google.com

Mira este tutorial: enlace

    
respondido por el Harish Kotikalapudi 18.06.2016 - 11:49
0

Si la velocidad es una preocupación (y el bienestar del servidor no lo es), puede intentar puf , que funciona como wget pero puede descargar varias páginas en paralelo. Sin embargo, no es un producto terminado, no se mantiene y horriblemente indocumentado. Aún así, para descargar un sitio web con muchos archivos pequeños, esta podría ser una buena opción.

    
respondido por el loevborg 07.01.2011 - 16:14

Lea otras preguntas en las etiquetas