Fish Shell:
Hämta en webbsida
How to:
För att ladda ner en webbsida i Fish Shell kan vi använda curl
eller wget
. Här är hur man gör det:
# Använd curl för att ladda ner innehållet i en webbsida till en fil
curl https://example.com -o webpage.html
# Använd wget för att ladda ner en hel webbsida
wget https://example.com
Exempel på utmatning efter körning:
# Med curl
% curl https://example.com -o webpage.html
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 1256 100 1256 0 0 6357 0 --:--:-- --:--:-- --:--:-- 6376
# Med wget
% wget https://example.com
--2023-04-01 12:00:00-- https://example.com/
Resolving example.com (example.com)... 93.184.216.34
Connecting to example.com (example.com)|93.184.216.34|:443... connected.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Saving to: ‘index.html’
index.html [ <=> ] 1.25K --.-KB/s in 0s
2023-04-01 12:00:01 (30.7 MB/s) - ‘index.html’ saved [1256]
Deep Dive
curl
och wget
är standardverktyg som används för att ladda ner data från internet. De har varit med en stund – curl
släpptes första gången 1997 och wget
1996. De är robusta, stöder flera protokoll och har många alternativ för att anpassa nedladdningen.
Med curl
kan du exempelvis ladda ner en fil, men även skicka data med POST, PUT och andra HTTP-metoder. wget
å andra sidan är mer inriktad på nedladdningar och kan till exempel rekursivt ladda ner webbsidor.
Varför välja Fish Shell för detta? Fish är känd för att vara användarvänlig med en syntax som är lätt att förstå och skriva. Det inbyggda stödet för färgläggning och förslag hjälper till att undvika fel.
See Also
- Fish Shell dokumentation: https://fishshell.com/docs/current/index.html
curl
dokumentation: https://curl.se/docs/wget
manual: https://www.gnu.org/software/wget/manual/wget.html- Introduktion till webbskrapning med Fish Shell: [Relevant artikel/webbsida]
- Utforska HTTP-protokollet: https://developer.mozilla.org/en-US/docs/Web/HTTP