Python:
Pobieranie strony internetowej
How to:
“## Jak to zrobić:”
Do pobierania stron użyjemy biblioteki requests
. Oto przykład, jak to zrobić:
import requests
url = 'http://example.com'
response = requests.get(url)
if response.ok:
html_content = response.text
print(html_content[:100]) # Wyświetlamy pierwsze 100 znaków
else:
print("Nie udało się pobrać strony.")
Output:
<!doctype html>
<html>
<head>
<title>Example Domain</title>
<...
Deep Dive:
“## Wnikliwa analiza:”
Kiedy internet stawał się popularny, zaczęto pobierać strony, aby działać na danych offline. Alternatywy to wget
i curl
, ale są to narzędzia wiersza poleceń. W Pythonie, przed requests
, popularna była biblioteka urllib
, która jest bardziej niskopoziomowa.
requests
jest wygodna i czytelna - ważne dla utrzymania kodu. Dużą zaletą jest obsługa sesji i ciasteczek. Programiści mogą dodatkowo wykorzystać takie opcje jak parametryzowanie zapytań czy obsługa timeoutu.
See Also:
“## Zobacz również:”
- Dokumentacja
requests
: https://requests.readthedocs.io/ - Porównanie
requests
iurllib
: https://realpython.com/requests-vs-urllib/ - Tutorial
wget
: https://www.gnu.org/software/wget/manual/wget.html - Informacje o
curl
: https://curl.se/docs/manual.html