Bash:
Pobieranie strony internetowej
Jak to zrobić:
# Pobranie strony i zapisanie do pliku przy użyciu cURL
curl http://example.com -o example_page.html
# Wyświetlenie wyników
cat example_page.html
# Pobieranie strony z wykorzystaniem wget
wget http://example.com
# Wynik będzie zapisany jako 'index.html' w bieżącym katalogu
ls
Deep Dive
Pobieranie stron ma bogatą historię, wystartowało wraz z pojawieniem się przeglądarek. Alternatywami dla curl
i wget
są narzędzia graficzne i biblioteki programistyczne jak httrack
czy BeautifulSoup
(Python). curl
jest świetny do szybkich operacji w terminalu, natomiast wget
radzi sobie lepiej z pobieraniem w trybie rekursywnym i obsługą dużych pobierań.