Scaricare una pagina web

Bash:
Scaricare una pagina web

How to:

Per scaricare una pagina web con Bash, si può usare curl o wget. Ecco alcuni esempi:

# Usando curl
curl http://esempio.com -o pagina.html

# Visualizzare il contenuto in console
curl http://esempio.com

# Usando wget
wget http://esempio.com

# Salvare la pagina con un nome specifico
wget -O nomepagina.html http://esempio.com

Esempio di output per curl:

<!DOCTYPE html>
<html>
<head>
    <title>Esempio Pagina</title>
</head>
<body>
    ...
</body>
</html>

Deep Dive:

curl e wget sono i due cavalli di battaglia per il download di contenuti web da linea di comando. curl risale al 1997 e wget al 1996, robusti e ricchi di funzionalità. Mentre curl supporta una vasta gamma di protocolli, wget è spesso la scelta per scaricamenti ricorsivi e mirati. Funzionano su qualsiasi distro Linux e sono spesso preinstallati.

  • Dettagli curl:

    • Supporta DICT, FILE, FTP, FTPS, Gopher, HTTP, HTTPS, IMAP, IMAPS, LDAP, LDAPS, MQTT, POP3, POP3S, RTMP, RTSP, SCP, SFTP, SMB, SMBS, SMTP, SMTPS, Telnet e TFTP.
    • Opzioni per tracciare header HTTP, upload file, configurare timeout.
  • Dettagli wget:

    • Recupera contenuti da server HTTP, HTTPS, e FTP.
    • Opzioni per navigazione offline, scaricamenti ricorsivi.

Con wget e curl si possono anche simulare richieste POST, gestire cookie, e automatizzare attraverso script.

See Also:

Quando hai esigenze di download più complesse, come ad esempio parsing o interazione dinamica, considera strumenti come Beautiful Soup per Python o puppeteer per Node.js.