Fish Shell:
Webseite herunterladen
How to:
Um eine Webseite herunterzuladen, verwenden wir curl
oder wget
. Hier ist ein einfaches Beispiel mit curl
:
curl https://example.com -o meine_webseite.html
Das lädt den Inhalt von example.com
herunter und speichert ihn in meine_webseite.html
. Mit wget
ist es fast genauso simpel:
wget -O meine_webseite.html https://example.com
Die Ausgabe ist die Webseite, die als meine_webseite.html
auf deinem Computer liegt.
Deep Dive
Herunterladen von Webseiten ist so alt wie das World Wide Web selbst. Ursprünglich von Hand durchgeführt, automatisieren Tools wie curl
und wget
den Prozess jetzt.
curl
unterstützt viele Protokolle und ist bekannt für seine Vielfältigkeit. wget
hingegen, ist ideal für rekursive Downloads oder das Spiegeln von Seiten.
Für größere Projekte kann man zu spezialisierten Libraries wie Python’s requests
oder BeautifulSoup
greifen, um die Daten nach dem Herunterladen zu manipulieren.
Hinter den Kulissen nutzen curl
und wget
HTTP-Requests, um mit dem Webserver zu kommunizieren und den Seiteninhalt abzurufen.