Bash:
웹 페이지 다운로드하기
How to (어떻게):
curl을 사용하는 방법:
curl http://example.com -o example.html
example.html
파일에 http://example.com
의 내용이 저장됩니다.
wget 사용법:
wget http://example.com
현재 디렉토리에 해당 웹 페이지의 내용이 index.html
로 저장됩니다.
샘플 출력:
$ curl http://example.com -o example.html
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 1270 100 1270 0 0 6569 0 --:--:-- --:--:-- --:--:-- 6597
Deep Dive (심층 탐구):
초창기 웹에서는 페이지를 다운로드하기 위해 웹 브라우저를 사용하거나 FTP와 같은 프로토콜을 사용하는 것이 일반적이었습니다. 그러나 스크립트를 사용하여 웹 자원을 자동으로 다운로드하는 방법이 필요하게 되었고, 이를 위해 curl
과 wget
같은 명령줄 툴들이 개발되었습니다.
curl
은 다양한 프로토콜을 지원하며, 데이터 전송용 라이브러리로도 활용할 수 있습니다. 반면에, wget
은 재귀적 다운로드 등의 기능을 지원하여 웹사이트의 전체를 손쉽게 미러링할 수 있게 해줍니다.
실제 구현 시, 네트워크 상태나 웹서버 설정에 따라 다운로드가 실패할 수 있습니다. 이를 위해 curl
과 wget
명령어에는 시도 횟수를 지정하거나 다운로드 속도를 제한하는 옵션을 제공합니다.
See Also (참고자료):
curl
매뉴얼 페이지: https://curl.se/docs/manpage.htmlwget
매뉴얼 페이지: https://www.gnu.org/software/wget/manual/wget.html- Bash 스크립팅 안내서: https://www.gnu.org/software/bash/manual/