Pobieranie strony internetowej

Bash:
Pobieranie strony internetowej

Jak to zrobić:

# Pobranie strony i zapisanie do pliku przy użyciu cURL
curl http://example.com -o example_page.html

# Wyświetlenie wyników
cat example_page.html
# Pobieranie strony z wykorzystaniem wget
wget http://example.com

# Wynik będzie zapisany jako 'index.html' w bieżącym katalogu
ls

Deep Dive

Pobieranie stron ma bogatą historię, wystartowało wraz z pojawieniem się przeglądarek. Alternatywami dla curl i wget są narzędzia graficzne i biblioteki programistyczne jak httrack czy BeautifulSoup (Python). curl jest świetny do szybkich operacji w terminalu, natomiast wget radzi sobie lepiej z pobieraniem w trybie rekursywnym i obsługą dużych pobierań.

Zobacz także: