Fish Shell:
Baixando uma página da web

Como Fazer:

Vamos usar o curl, um comando poderoso para transferência de dados. No Fish, isso fica simples assim:

# Baixa o conteúdo da página inicial do Google e salva no arquivo google.html
curl https://www.google.com -o google.html

Resultado esperado é um arquivo chamado google.html no seu diretório atual contendo o HTML do Google.

Mergulho Profundo

O ato de baixar páginas da web data dos primeiros dias da internet. Antes do curl, que apareceu pela primeira vez em 1997, os protocolos FTP e HTTP eram manipulados por softwares mais primitivos e específicos. O curl eventualmente se tornou um dos favoritos por sua simplicidade e versatilidade.

Além do curl, existem outras ferramentas, como o wget, que é particularmente bom para baixar o conteúdo inteiro de sites. No entanto, o curl ainda é preferido para operações rápidas de transferência de dados devido à sua sintaxe simplificada e à ampla disponibilidade em diferentes sistemas operacionais.

A implementação exata das ferramentas pode variar dependendo da versão, mas o conceito central é o mesmo: requisitar os dados de uma URL e salvá-los localmente. É possível também que uma linguagem de programação como Python ou Ruby tenha suas próprias bibliotecas para baixar páginas web, mas para muitos scripts rápidos e sujos, curl no shell é a maneira mais rápida e fácil de fazer o trabalho.

Veja Também