Fish Shell:
Baixando uma página da web
Como Fazer:
Vamos usar o curl
, um comando poderoso para transferência de dados. No Fish, isso fica simples assim:
# Baixa o conteúdo da página inicial do Google e salva no arquivo google.html
curl https://www.google.com -o google.html
Resultado esperado é um arquivo chamado google.html
no seu diretório atual contendo o HTML do Google.
Mergulho Profundo
O ato de baixar páginas da web data dos primeiros dias da internet. Antes do curl
, que apareceu pela primeira vez em 1997, os protocolos FTP e HTTP eram manipulados por softwares mais primitivos e específicos. O curl
eventualmente se tornou um dos favoritos por sua simplicidade e versatilidade.
Além do curl
, existem outras ferramentas, como o wget
, que é particularmente bom para baixar o conteúdo inteiro de sites. No entanto, o curl
ainda é preferido para operações rápidas de transferência de dados devido à sua sintaxe simplificada e à ampla disponibilidade em diferentes sistemas operacionais.
A implementação exata das ferramentas pode variar dependendo da versão, mas o conceito central é o mesmo: requisitar os dados de uma URL e salvá-los localmente. É possível também que uma linguagem de programação como Python ou Ruby tenha suas próprias bibliotecas para baixar páginas web, mas para muitos scripts rápidos e sujos, curl
no shell é a maneira mais rápida e fácil de fazer o trabalho.
Veja Também
- Documentação do
curl
: https://curl.se/docs/ - Uma comparação entre
curl
ewget
: https://www.baeldung.com/linux/wget-vs-curl - Tutorial sobre automatização de downloads com o Fish shell: https://fishshell.com/docs/current/tutorial.html#tut_automatic_web_downloads