Fish Shell:
Pobieranie strony internetowej
How to: (Jak to zrobić:)
function fetch_page -d "Download web page content"
set url $argv[1]
set output $argv[2]
curl $url -o $output
end
fetch_page "http://example.com" "example_page.html"
Jeśli wszystko przebiegnie pomyślnie, zobaczysz utworzony plik example_page.html
z zawartością strony example.com
.
Deep Dive (Dogłębna analiza)
Zanim curl
stał się standardem, używano wget
do ściągania plików. Dzisiaj curl
jest preferowany ze względu na elastyczność i wsparcie dla wielu protokołów. Fish Shell to nowoczesna powłoka, która ułatwia życie programisty, m.in. przez wbudowane funkcje, takie jak wyżej definiowane fetch_page
. Umożliwiają one tworzenie skryptów, które integrują różne narzędzia w bardziej czytelne i zarządzalne bloki kodu.
Gdy ściągasz stronę, pamiętaj o prawach autorskich i zasadach korzystania ze strony — nie wszystkie treści są dozwolone do pobrania. Dodatkowo, zwróć uwagę na robots.txt
danego serwisu, gdzie określone mogą być zasady skanowania strony przez boty.