Pobieranie strony internetowej

C++:
Pobieranie strony internetowej

How to: (Jak to zrobić:)

#include <iostream>
#include <curl/curl.h>

static size_t WriteCallback(void *contents, size_t size, size_t nmemb, void *userp) {
    ((std::string*)userp)->append((char*)contents, size * nmemb);
    return size * nmemb;
}

int main() {
    CURL *curl;
    CURLcode res;
    std::string readBuffer;

    curl = curl_easy_init();
    if(curl) {
        curl_easy_setopt(curl, CURLOPT_URL, "http://example.com");
        curl_easy_setopt(curl, CURLOPT_WRITEFUNCTION, WriteCallback);
        curl_easy_setopt(curl, CURLOPT_WRITEDATA, &readBuffer);
        res = curl_easy_perform(curl);
        curl_easy_cleanup(curl);

        std::cout << readBuffer << std::endl;
    }
    return 0;
}

Sample output:

<!doctype html>
<html>
<head>
    <title>Example Domain</title>
...
</html>

Deep Dive (Głębsze spojrzenie)

W latach 90. pobieranie stron internetowych było znacznie prostsze ze względu na mniej dynamiczne treści. Dziś, z AJAX i dynamicznym ładowaniem treści, często po prostu ściągnięcie HTML nie wystarcza. Alternatywy jak Selenium czy PhantomJS pozwalają na interakcję ze stroną i jej JavaScriptem. Podczas korzystania z biblioteki cURL w C++, musimy zadbać o zarządzanie pamięcią i bezpieczeństwo - ważna jest odpowiednia konfiguracja i obsługa błędów.

See Also (Zobacz także)