Pobieranie strony internetowej

Python:
Pobieranie strony internetowej

How to:

“## Jak to zrobić:”

Do pobierania stron użyjemy biblioteki requests. Oto przykład, jak to zrobić:

import requests

url = 'http://example.com'
response = requests.get(url)

if response.ok:
    html_content = response.text
    print(html_content[:100])  # Wyświetlamy pierwsze 100 znaków
else:
    print("Nie udało się pobrać strony.")

Output:

<!doctype html>
<html>
<head>
    <title>Example Domain</title>
<...

Deep Dive:

“## Wnikliwa analiza:”

Kiedy internet stawał się popularny, zaczęto pobierać strony, aby działać na danych offline. Alternatywy to wget i curl, ale są to narzędzia wiersza poleceń. W Pythonie, przed requests, popularna była biblioteka urllib, która jest bardziej niskopoziomowa.

requests jest wygodna i czytelna - ważne dla utrzymania kodu. Dużą zaletą jest obsługa sesji i ciasteczek. Programiści mogą dodatkowo wykorzystać takie opcje jak parametryzowanie zapytań czy obsługa timeoutu.

See Also:

“## Zobacz również:”