概述
爬虫是一种自动获取网页内容的程序,它可以用于数据采集、信息分析、网站监测等多种场景。在C语言中,有一个非常强大和灵活的库可以用于实现爬虫功能,那就是libcurl。libcurl是一个支持多种协议和平台的网络传输库,它提供了一系列的API函数,可以让开发者方便地发送和接收HTTP请求。
本文将介绍如何在C程序中使用libcurl库下载网页内容,并保存到本地文件中。同时,为了避免被目标网站封禁IP,我们还将使用代理IP技术,通过不同的IP地址访问网站。我们将参考爬虫代理的域名、端口、用户名、密码,来获取可用的代理IP。最后,我们将使用自定义写入回调函数,来处理网页内容的写入操作。
正文
1. 安装和配置libcurl库
要使用libcurl库,首先需要下载并安装它。我们可以从官网下载最新版本的源码包,也可以使用包管理器来安装预编译的二进制包。以Windows平台为例,我们可以使用Visual Studio命令行工具来编译libcurl库。具体步骤如下:
- 下载并解压libcurl源码包
- 打开Visual Studio命令行工具,并切换到源码包的winbuild目录下
- 执行编译命令,例如:
nmake /f Makefile.vc mode=dll VC=15 MACHINE=x64 DEBUG=no
⁵ - 编译成功后,在builds目录下会生成相应的头文件、库文件和可执行文件
接下来,我们需要配置libcurl库的路径和链接选项。以Visual Studio为例,我们可以在项目属性中设置以下内容:
- 在C/C++ -> 常规 -> 附加包含目录中添加libcurl头文件所在的路径
- 在链接器 -> 常规 -> 附加库目录中添加libcurl库文件所在的路径
- 在链接器 -> 输入 -> 附加依赖项中添加libcurl.lib
2. 初始化和设置libcurl句柄
要使用libcurl库发送HTTP请求,我们需要创建一个libcurl句柄,并对其进行一些必要的设置。具体步骤如下:
- 调用
curl_global_init
函数初始化libcurl环境 - 调用
curl_easy_init
函数创建一个libcurl句柄 - 调用
curl_easy_setopt
函数设置一些选项,例如:CURLOPT_URL
:设置要访问的网址CURLOPT_PROXY
:设置代理服务器的地址和端口CURLOPT_PROXYTYPE
:设置代理服务器的类型,例如HTTP或SOCKSCURLOPT_PROXYUSERPWD
:设置代理服务器的用户名和密码CURLOPT_WRITEFUNCTION
:设置写入回调函数的指针CURLOPT_WRITEDATA
:设置写入回调函数的参数
3. 发送HTTP请求并处理响应
设置好libcurl句柄后,我们就可以发送HTTP请求了。具体步骤如下:
- 调用
curl_easy_perform
函数执行HTTP请求 - 调用
curl_easy_getinfo
函数获取一些有用的信息,例如:CURLINFO_RESPONSE_CODE
:获取HTTP响应的状态码CURLINFO_PRIMARY_IP
:获取目标网站的IP地址CURLINFO_CONTENT_TYPE
:获取响应的内容类型
- 调用写入回调函数处理响应的内容,例如:
- 打开一个本地文件
- 将响应的内容写入文件
- 关闭文件
4. 释放资源和清理环境
完成HTTP请求后,我们需要释放一些资源,并清理libcurl环境。具体步骤如下:
- 调用
curl_easy_cleanup
函数释放libcurl句柄 - 调用
curl_global_cleanup
函数清理libcurl环境
5.C代码示例
首先是回调函数的实现如下:
// 定义写入回调函数的实现
size_t write_data(void *ptr, size_t size, size_t nmemb, void *stream) {// 计算接收到的数据的字节数size_t bytes = size * nmemb;// 将数据写入文件中fwrite(ptr, size, nmemb, (FILE *)stream);// 返回写入的字节数return bytes;
}
这个函数的参数和返回值都是由libcurl库定义的,我们只需要按照规范来实现即可。函数的作用是将接收到的数据(ptr)写入到指定的文件流(stream)中,并返回写入的字节数(bytes)。这样,libcurl库就可以知道是否有数据丢失或错误发生。
下面是完整的C代码,你可以编译运行,看看效果如何。
#include <stdio.h>
#include "curl/curl.h"size_t write_data(void *ptr, size_t size, size_t nmemb, void *stream);// 亿牛云 爬虫代理 设置代理服务器域名、端口、用户名、密码
#define PROXY_HOST "http://www.16yun.cn"
#define PROXY_PORT "8080"
#define PROXY_USER "16YUN"
#define PROXY_PASS "16IP"
#define URL "http://www.example.com"
#define FILENAME "example.html"int main(void) {// 初始化 curl 库CURLcode code = curl_global_init(CURL_GLOBAL_ALL);if (code != CURLE_OK) {fprintf(stderr, "初始化失败: %s\n", curl_easy_strerror(code));return 1;}// 获取 curl 库的版本信息curl_version_info_data *data = curl_version_info(CURLVERSION_NOW);printf("curl 库的版本: %s\n", data->version);// 创建一个 easy 句柄CURL *curl = curl_easy_init();if (curl == NULL) {fprintf(stderr, "创建句柄失败\n");curl_global_cleanup();return 2;}// 设置 URLcode = curl_easy_setopt(curl, CURLOPT_URL, URL);if (code != CURLE_OK) {fprintf(stderr, "设置 URL 失败: %s\n", curl_easy_strerror(code));curl_easy_cleanup(curl);curl_global_cleanup();return 3;}// 设置代理服务器code = curl_easy_setopt(curl, CURLOPT_PROXY, PROXY_HOST ":" PROXY_PORT);if (code != CURLE_OK) {fprintf(stderr, "设置代理服务器失败: %s\n", curl_easy_strerror(code));curl_easy_cleanup(curl);curl_global_cleanup();return 4;}// 设置代理类型code = curl_easy_setopt(curl, CURLOPT_PROXYTYPE, CURLPROXY_HTTP);if (code != CURLE_OK) {fprintf(stderr, "设置代理类型失败: %s\n", curl_easy_strerror(code));curl_easy_cleanup(curl);curl_global_cleanup();return 5;}// 设置代理认证code = curl_easy_setopt(curl, CURLOPT_PROXYUSERPWD, PROXY_USER ":" PROXY_PASS);if (code != CURLE_OK) {fprintf(stderr, "设置代理认证失败: %s\n", curl_easy_strerror(code));curl_easy_cleanup(curl);curl_global_cleanup();return 6;}// 设置用户代理char *user_agent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36";code = curl_easy_setopt(curl, CURLOPT_USERAGENT, user_agent);if (code != CURLE_OK) {fprintf(stderr, "设置用户代理失败: %s\n", curl_easy_strerror(code));curl_easy_cleanup(curl);curl_global_cleanup();return 7;}// 设置 Cookiechar *cookies = "your_cookie_data_here";code = curl_easy_setopt(curl, CURLOPT_COOKIE, cookies);if (code != CURLE_OK) {fprintf(stderr, "设置 Cookie 失败: %s\n", curl_easy_strerror(code));curl_easy_cleanup(curl);curl_global_cleanup();return 8;}// 设置写入数据的回调函数code = curl_easy_setopt(curl, CURLOPT_WRITEFUNCTION, write_data);if (code != CURLE_OK) {fprintf(stderr, "设置回调函数失败: %s\n", curl_easy_strerror(code));curl_easy_cleanup(curl);curl_global_cleanup();return 9;}// 打开本地文件FILE *file = fopen(FILENAME, "wb");if (file == NULL) {fprintf(stderr, "打开文件失败: %s\n", FILENAME);curl_easy_cleanup(curl);curl_global_cleanup();return 10;}// 设置写入数据的文件指针code = curl_easy_setopt(curl, CURLOPT_WRITEDATA, file);if (code != CURLE_OK) {fprintf(stderr, "设置文件指针失败: %s\n", curl_easy_strerror(code));fclose(file);curl_easy_cleanup(curl);curl_global_cleanup();return 11;}// 执行传输code = curl_easy_perform(curl);if (code != CURLE_OK) {fprintf(stderr, "执行传输失败: %s\n", curl_easy_strerror(code));fclose(file);curl_easy_cleanup(curl);curl_global_cleanup();return 12;}// 获取响应状态码long status;code = curl_easy_getinfo(curl, CURLINFO_RESPONSE_CODE, &status);if (code == CURLE_OK) {printf("响应状态码: %ld\n", status);} else {fprintf(stderr, "获取状态码失败: %s\n", curl_easy_strerror(code));}// 获取目标 IP 地址char *ip;code = curl_easy_getinfo(curl, CURLINFO_PRIMARY_IP, &ip);if (code == CURLE_OK) {printf("目标 IP 地址: %s\n", ip);free(ip); // 需要释放字符串指针} else {fprintf(stderr, "获取 IP 地址失败: %s\n", curl_easy_strerror(code));}// 获取内容类型char *type;code = curl_easy_getinfo(curl, CURLINFO_CONTENT_TYPE, &type);if (code == CURLE_OK) {printf("内容类型: %s\n", type);free(type); // 需要释放字符串指针} else {fprintf(stderr, "获取内容类型失败: %s\n", curl_easy_strerror(code));}// 关闭文件fclose(file);// 清理 easy 句柄curl_easy_cleanup(curl);// 清理全局资源curl_global_cleanup();return 0;
}// 写入数据的回调函数
size_t write_data(void *ptr, size_t size, size_t nmemb, void *stream) {size_t written = fwrite(ptr, size, nmemb, (FILE *)stream);if (written != size * nmemb) {fprintf(stderr, "写入文件出错\n");return -1; // 返回一个负值,停止传输}return written;
}
结语
本文介绍了如何在C程序中使用libcurl库下载网页内容,并保存到本地文件中。我们还使用了代理IP技术,来绕过目标网站的反爬措施。我们使用了自定义写入回调函数,来处理网页内容的写入操作。通过这个示例,我们可以学习到libcurl库的基本用法和一些高级特性,以及如何在C语言中实现爬虫功能。