웹 페이지 다운로드하기

Bash:
웹 페이지 다운로드하기

How to (어떻게):

curl을 사용하는 방법:

curl http://example.com -o example.html

example.html 파일에 http://example.com의 내용이 저장됩니다.

wget 사용법:

wget http://example.com

현재 디렉토리에 해당 웹 페이지의 내용이 index.html로 저장됩니다.

샘플 출력:

$ curl http://example.com -o example.html
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100  1270  100  1270    0     0   6569      0 --:--:-- --:--:-- --:--:--  6597

Deep Dive (심층 탐구):

초창기 웹에서는 페이지를 다운로드하기 위해 웹 브라우저를 사용하거나 FTP와 같은 프로토콜을 사용하는 것이 일반적이었습니다. 그러나 스크립트를 사용하여 웹 자원을 자동으로 다운로드하는 방법이 필요하게 되었고, 이를 위해 curlwget 같은 명령줄 툴들이 개발되었습니다.

curl은 다양한 프로토콜을 지원하며, 데이터 전송용 라이브러리로도 활용할 수 있습니다. 반면에, wget은 재귀적 다운로드 등의 기능을 지원하여 웹사이트의 전체를 손쉽게 미러링할 수 있게 해줍니다.

실제 구현 시, 네트워크 상태나 웹서버 설정에 따라 다운로드가 실패할 수 있습니다. 이를 위해 curlwget 명령어에는 시도 횟수를 지정하거나 다운로드 속도를 제한하는 옵션을 제공합니다.

See Also (참고자료):