Fish Shell:
Hämta en webbsida

How to:

För att ladda ner en webbsida i Fish Shell kan vi använda curl eller wget. Här är hur man gör det:

# Använd curl för att ladda ner innehållet i en webbsida till en fil
curl https://example.com -o webpage.html

# Använd wget för att ladda ner en hel webbsida
wget https://example.com

Exempel på utmatning efter körning:

# Med curl
% curl https://example.com -o webpage.html
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100  1256  100  1256    0     0   6357      0 --:--:-- --:--:-- --:--:--  6376

# Med wget
% wget https://example.com
--2023-04-01 12:00:00--  https://example.com/
Resolving example.com (example.com)... 93.184.216.34
Connecting to example.com (example.com)|93.184.216.34|:443... connected.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Saving to: ‘index.html’

index.html                                      [ <=> ]   1.25K  --.-KB/s    in 0s      

2023-04-01 12:00:01 (30.7 MB/s) - ‘index.html’ saved [1256]

Deep Dive

curl och wget är standardverktyg som används för att ladda ner data från internet. De har varit med en stund – curl släpptes första gången 1997 och wget 1996. De är robusta, stöder flera protokoll och har många alternativ för att anpassa nedladdningen.

Med curl kan du exempelvis ladda ner en fil, men även skicka data med POST, PUT och andra HTTP-metoder. wget å andra sidan är mer inriktad på nedladdningar och kan till exempel rekursivt ladda ner webbsidor.

Varför välja Fish Shell för detta? Fish är känd för att vara användarvänlig med en syntax som är lätt att förstå och skriva. Det inbyggda stödet för färgläggning och förslag hjälper till att undvika fel.

See Also