Bash:
Scaricare una pagina web
How to:
Per scaricare una pagina web con Bash, si può usare curl
o wget
. Ecco alcuni esempi:
# Usando curl
curl http://esempio.com -o pagina.html
# Visualizzare il contenuto in console
curl http://esempio.com
# Usando wget
wget http://esempio.com
# Salvare la pagina con un nome specifico
wget -O nomepagina.html http://esempio.com
Esempio di output per curl
:
<!DOCTYPE html>
<html>
<head>
<title>Esempio Pagina</title>
</head>
<body>
...
</body>
</html>
Deep Dive:
curl
e wget
sono i due cavalli di battaglia per il download di contenuti web da linea di comando. curl
risale al 1997 e wget
al 1996, robusti e ricchi di funzionalità. Mentre curl
supporta una vasta gamma di protocolli, wget
è spesso la scelta per scaricamenti ricorsivi e mirati. Funzionano su qualsiasi distro Linux e sono spesso preinstallati.
Dettagli
curl
:- Supporta DICT, FILE, FTP, FTPS, Gopher, HTTP, HTTPS, IMAP, IMAPS, LDAP, LDAPS, MQTT, POP3, POP3S, RTMP, RTSP, SCP, SFTP, SMB, SMBS, SMTP, SMTPS, Telnet e TFTP.
- Opzioni per tracciare header HTTP, upload file, configurare timeout.
Dettagli
wget
:- Recupera contenuti da server HTTP, HTTPS, e FTP.
- Opzioni per navigazione offline, scaricamenti ricorsivi.
Con wget
e curl
si possono anche simulare richieste POST, gestire cookie, e automatizzare attraverso script.
See Also:
- Documentazione
curl
: https://curl.se/docs/ - Documentazione
wget
: https://www.gnu.org/software/wget/manual/wget.html - Bash Scripting Tutorial: https://www.shellscript.sh/
Quando hai esigenze di download più complesse, come ad esempio parsing o interazione dinamica, considera strumenti come Beautiful Soup
per Python o puppeteer
per Node.js.