Bash:
下载网页
How to: 如何實現
# 使用curl命令下載網頁
curl https://example.com -o saved_page.html
# 使用wget命令
wget https://example.com
範例輸出:
# 如果使用curl
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 1256 100 1256 0 0 6352 0 --:--:-- --:--:-- --:--:-- 6400
# 如果使用wget
--2023-04-01 10:00:00-- https://example.com/
解析主機 example.com (example.com)... 93.184.216.34
連接 example.com (example.com)|93.184.216.34|:443... 已連接。
已送出 HTTP 請求,正在等候回應... 200 OK
長度: 1256 (1.2K) [text/html]
正儲存至: 'index.html'
index.html 100%[===================>] 1.23K --.-KB/s 於 0s
2023-04-01 10:00:00 (30.4 MB/s) - 'index.html' 已儲存 [1256/1256]
Deep Dive 深入探討
早期,下載網頁通常是手動的。隨著互聯網的發展,自動化工具如 curl
和 wget
出現,它們可以透過命令列介面操作。curl
支持各種協議而 wget
偏向於從伺服器上遞迴地下載內容。兩者均允許使用者自定義請求頭部(header)、隨批次檔案執行(batch)等操作。