Tobyがすでに述べたように、libcurlはおそらくあなたの最善の策です。これは、 libcurl-easyインターフェースを使用してWebページを取得する方法を示す実際のプログラムです。
#include <stdio.h>
#include <curl/curl.h>
int main(int argc, char *argv[]) {
CURL *curl;
CURLcode curl_result;
const char *site;
if (argc != 2) {
fprintf(stderr, "Usage: %s site\n", argv[0]);
return 1;
}
site = argv[1];
curl = curl_easy_init();
if(curl) {
curl_easy_setopt(curl, CURLOPT_URL, site);
curl_result = curl_easy_perform(curl);
if(curl_result != CURLE_OK) {
fprintf(stderr, "curl_easy_perform() failed: %s\n",
curl_easy_strerror(curl_result));
}
curl_easy_cleanup(curl);
}
else {
fprintf(stderr, "Failed to initialize curl\n");
return 1;
}
return 0;
}
プログラムは、取得するサイトの名前という1つの引数を取ります。でコンパイルしgcc curltest.c -lcurl -o curltest
て実行するとcurltest http://livechat.rediff.com/sports/score/score.txt
、次のように出力されます。
l1=England vs South Africa
l2=England
interval=1
message=England 16-2 (13)
tagline=J Trott(6) I Bell(4)*
date=19 August, 2012
ver=19