Früher, als die Internetverbindung langsamer und weniger stabil war, haben Entwickler Webseiten oft heruntergeladen, um in Ruhe daran zu arbeiten.
Bash ist nicht die erste Wahl zum Parsen von HTML, aber es kann mit Werkzeugen wie grep, awk, sed oder externen Dienstprogrammen wie lynx durchgeführt werden.
grep
awk
sed
lynx
How to: Curl-Befehl curl https://api.example.com/data Output: {"name":"Beispiel","type":"JSON data"} Mit HTTP-Methoden # GET-Anfrage curl -X GET https://api.example.com/data # POST-Anfrage mit Payload curl -X POST -d '{"key":"value"}' https://api.example.com/data Antwort-Header anzeigen curl -I https://api.example.com/data HTTP-Statuscode auswerten response=$(curl –write-out %{http_code} –silent –output /dev/null https://api.example.com/data) echo $response Output: 200 Deep Dive Historischer Kontext HTTP-Anfragen existieren seit Anfang der 1990er, als Tim Berners-Lee das HTTP initiierte. Curl kam 1997, ermöglicht einfache Befehlszeilenanfragen. Alternativen wget: ähnlich wie Curl, aber schlechter für Skripte.
Basic Authentication wird bereits seit den Anfängen des Webs für einfache Authentifizierungsprozesse verwendet.