Fish Shell:
Pobieranie strony internetowej

How to: (Jak to zrobić:)

function fetch_page -d "Download web page content"
    set url $argv[1]
    set output $argv[2]
    curl $url -o $output
end

fetch_page "http://example.com" "example_page.html"

Jeśli wszystko przebiegnie pomyślnie, zobaczysz utworzony plik example_page.html z zawartością strony example.com.

Deep Dive (Dogłębna analiza)

Zanim curl stał się standardem, używano wget do ściągania plików. Dzisiaj curl jest preferowany ze względu na elastyczność i wsparcie dla wielu protokołów. Fish Shell to nowoczesna powłoka, która ułatwia życie programisty, m.in. przez wbudowane funkcje, takie jak wyżej definiowane fetch_page. Umożliwiają one tworzenie skryptów, które integrują różne narzędzia w bardziej czytelne i zarządzalne bloki kodu.

Gdy ściągasz stronę, pamiętaj o prawach autorskich i zasadach korzystania ze strony — nie wszystkie treści są dozwolone do pobrania. Dodatkowo, zwróć uwagę na robots.txt danego serwisu, gdzie określone mogą być zasady skanowania strony przez boty.

See Also (Zobacz również)