Java中使用四叶天动态代理IP构建ip代理池,实现httpClient和Jsoup代理ip爬虫

在本次爬虫项目中,关于应用IP代理池方面,具体完成以下功能:

  1. 从指定API地址提取IP到ip池中(一次提取的IP数量可以自定义更改)

  2. 每次开始爬虫前(多条爬虫线程并发执行),从ip池中获取一条可用ip和端口号(并用此ip进行代理爬虫)

  3. 每条IP的有效时间为1~5分钟,如果爬虫过程中当前代理ip失效时,程序可以自动切换IP,并从当前爬到的页数开始继续爬虫。

目录

一、四叶天动态代理IP的使用步骤

二、在Java中动态IP代理的工具类

三、如何使用动态Ip进行网站访问

四、实际爬虫过程中的注意事项

五、代码中的亮点:


一、四叶天动态代理IP的使用步骤

想要使用ip代理池来进行代理IP爬虫,我们首先要购买一些可用IP,下面介绍一个好用实惠的IP代理网站:(https://www.siyetian.com)提供高质量的动态IP 服务 ,以下是购买和使用该服务的详细步骤:

(一)购买动态 IP 服务

  1. 注册并登录

  2. 实名认证:在使用服务前,需完成实名认证。登录后,前往实名认证页面(登录 - 四叶天HTTP),按照提示提交相关信息进行认证。

  3. 选择套餐:点击顶部导航栏“动态IP”,选择适合的动态 IP 套餐。这里我使用的是:按使用量购买,四块钱1000条IP

  4. 支付购买

(二)使用动态 IP 服务

点击顶部导航栏的提取API

我的配置如下:

①IP协议为Http

②提取数量为每次一条,

③数据格式设置为Json

④在白名单中添加本机IP

最后点击生成api链接,你会得到一个URL地址,每访问一次该地址,就会返回一条IP地址和一个端口号(同时你刚买的1000条IP中就少一条🐶)

注意事项(该部分AI生成用于凑字数,不想看可不看🐶):

  1. 设置白名单:在使用代理 IP 前,需将您的本机 IP地址 添加到白名单,以确保代理服务的正常使用。

    前往白名单设置页面:(登录 - 四叶天HTTP),添加您的本地 IP 地址。

  2. 配置代理IP:您可以在应用程序或浏览器中,设置使用获取的代理 IP。具体步骤如下:

    • 在浏览器设置:在浏览器的网络设置中,选择手动代理配置,输入获取的代理 IP 地址和端口号,保存设置。

    • 在程序设置:在您的爬虫、网络请求等程序中,按照编程语言的网络请求库要求,设置代理 IP 和端口。

  3. 验证代理有效性:在开始正式使用前,建议测试代理 IP 的有效性。您可以通过访问特定网站或使用相关工具,检查当前的外网 IP 是否与代理 IP 匹配,以确保代理设置成功。

注意事项(这是本人写的,大家要注意)

  • IP 时效性:每条动态 IP 的有效时长通常较短(这里是 1-5 分钟后就会失效),请根据您的业务需求,合理设置提取频率和使用策略,当一条IP到期时确保你的爬虫程序可以自动更换IP。

通过以上步骤,您即可购买并使用四叶天代理的动态 IP 服务,满足您的网络代理需求。

二、在Java中动态IP代理的工具类

当你购买完代理IP后,可以参考官方提供的SDK代码示例来构造自己的IP代理池,如下图:

 

但是官方代码的并不适合我的需求,因此本人自己找了一个Java工具类,用于IP代理池的构建和使用,非常方便。

代码如下(供大家参考):

import com.alibaba.fastjson2.JSON;
import com.alibaba.fastjson2.JSONArray;
import com.alibaba.fastjson2.JSONObject;
import com.qcby.byspringbootdemo.entity.AgencyIp;
​
import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
import java.net.HttpURLConnection;
import java.net.InetSocketAddress;
import java.net.Proxy;
import java.net.URL;
import java.util.Iterator;
import java.util.concurrent.CopyOnWriteArraySet;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
​
public class YzxIpPoolUtil {//使用线程安全集合类存储代理ipprivate static CopyOnWriteArraySet<AgencyIp> ipSet = new CopyOnWriteArraySet<>();
​// 使用线程池执行IP验证任务static ExecutorService pool = Executors.newFixedThreadPool(10);
​
​
​//从ip集合中获取一个有效的代理IP,若集合中没有则返回null/*public static AgencyIp getAvailableIp() {if (!ipSet.isEmpty()) {Iterator<AgencyIp> iterator = ipSet.iterator();while (iterator.hasNext()) {AgencyIp ip = iterator.next();if (checkIpAddress(ip)) {return ip;}else {iterator.remove();}}
​}return null;}*/
​/*** 改进版getAvailableIp()  确保返回的ip一定有效* @return*/public static AgencyIp getAvailableIp() {//更新ipSet集合,确保里面有ip且一定可用updateIpSet();for (AgencyIp ip : ipSet) {if (checkIpAddress(ip)) {return ip;}}return null;}
​/*** 更新ipSet集合,删除无效ip,如果为空则获取ip*/public static void updateIpSet(){if (!ipSet.isEmpty()) {//删除无效ipipSet.removeIf(ip -> !checkIpAddress(ip));}
​if (ipSet.isEmpty()) {//如果空,则获取ipgetIpList();}}
​//抓取ip,放进ip代理池private static void getIpList() {System.out.println("正在抓取IP......");String apiUrl = "http://proxy.siyetian.com/apis_get.html?token=AesJWLNpXR51kaJdXTqFFeNRVS14EVJlXTn1STqFUeORUR41karlXTU1kePRVS10ERNhnTqFFe.wN2YTN0IDNzcTM&limit=1&type=0&time=&data_format=json";
​String resultJsonStr = null;try {resultJsonStr = getData(apiUrl);} catch (IOException e) {System.out.println("ip抓取失败,请检查URL是否正确");throw new RuntimeException("ip抓取失败");}JSONObject jsonObject = JSON.parseObject(resultJsonStr);
​// 从返回的数据中提取代理列表if (jsonObject.getIntValue("code") == 1) {JSONArray data = (JSONArray) jsonObject.get("data");for (int i = 0;i<data.size();i++){// 创建 AgencyIp 对象AgencyIp agencyIp = new AgencyIp();agencyIp.setAddress(data.getJSONObject(i).get("ip").toString());agencyIp.setPort((int)data.getJSONObject(i).get("port"));
​if (checkIpAddress(agencyIp)){ipSet.add(agencyIp);System.out.println("已经放入集合一个ip:"+agencyIp.toString());}
​
/*开启子线程检查该IP是否可用(选用)*如果不使用子线程,* 而是在主线程中依次检查每个 IP 的可用性,* 那么每次检查都需要等待上一次检查完成,这个过程是顺序执行的。* 当 IP 数量较多或者检查 IP 可用性的操作(比如发起网络请求去验证等)比较耗时的时候,* 主线程就会被长时间阻塞,导致后续其他代码无法及时执行,影响整个程序的响应速度和执行效率。* 而通过开启子线程,可以让多个 IP 的可用性检查操作并发进行,* 主线程不必等待每个检查操作结束就能继续往下执行其他任务,比如继续去抓取更多 IP* 提升了整体的执行效率。
*///                pool.execute(new Runnable() {
//                    @Override
//                    public void run() {
//                        if (checkIpAddress(agencyIp)){
//                            ipSet.add(agencyIp);
//                        }
//                    }
//                });}}else {System.out.println("抓取代理IP失败,状态码为0");}}
​// 检查代理IP地址是否有效public static boolean checkIpAddress(AgencyIp agencyIp) {if(agencyIp.getAddress()==null){return false;}Proxy proxy = new Proxy(Proxy.Type.HTTP, new InetSocketAddress(agencyIp.getAddress(), agencyIp.getPort()));HttpURLConnection connection = null;int retries = 3;  // 重试次数while (retries > 0) {try {connection = (HttpURLConnection) new URL("https://www.baidu.com/").openConnection(proxy);connection.setConnectTimeout(3000);  // 设置连接超时connection.setReadTimeout(3000);     // 设置读取超时connection.setUseCaches(false);
​if (connection.getResponseCode() == 200) {System.out.println(agencyIp.getAddress() + " 该IP有效");return true;}} catch (IOException e) {System.out.println(agencyIp.getAddress() + " 该IP无效,原因:" + e.getMessage());retries--;if (retries == 0) {System.out.println(agencyIp.getAddress() + " 无效代理,尝试 " + (3 - retries) + " 次后失败");}}}return false;}
​// 获取指定url内容private static String getData(String requestUrl) throws IOException {URL url = new URL(requestUrl);HttpURLConnection conn = (HttpURLConnection) url.openConnection();conn.setRequestMethod("GET");conn.connect();//建立连接(可选)//InputStream是字节流,下行代码是把字节流转换为字符流,然后再转换为BufferedReader字符流,以便于按行读取数据BufferedReader reader = new BufferedReader(new InputStreamReader(conn.getInputStream(), "utf-8"));//StringBuffer(线程安全的可变字符序列)StringBuffer buffer = new StringBuffer();String str;while ((str = reader.readLine()) != null) {buffer.append(str);}if (buffer.length() == 0) {buffer.append("[]");}String result = buffer.toString();reader.close();//关闭BufferedReaderconn.disconnect();//关闭连接(可选)return result;}
​public static void main(String[] args) {updateIpSet();System.out.println(ipSet.toString());}
}
​

下面是对这段代码中每个方法的功能总结:


类变量

  • ipSet:使用线程安全的 CopyOnWriteArraySet 存储代理 IP 的集合。

  • pool:线程池,用于执行 IP 验证任务。


方法列表

  1. getAvailableIp

    • 功能:从 ipSet 中获取一个有效的代理 IP。

    • 实现:

      调用 updateIpSet 方法,确保集合中的 IP 是最新且有效的。

      遍历 ipSet,找到并返回第一个可用的 IP。

  2. updateIpSet

    • 功能:更新 ipSet,删除无效 IP。如果集合为空,则调用 getIpList 获取新的 IP。

    • 实现:

      遍历 ipSet,调用 checkIpAddress 方法,移除不可用的 IP。

      如果集合为空,调用 getIpList 抓取新的 IP。

  3. getIpList

    • 功能:从指定的 API 地址抓取代理 IP,并添加到 ipSet 中。

    • 实现:

      调用 getData 方法从指定 URL 获取 JSON 数据。

      解析 JSON,提取 IP 和端口,创建 AgencyIp 对象。

      检查每个 IP 的可用性(调用 checkIpAddress),将有效 IP 添加到集合中。

  4. checkIpAddress

    • 功能:检查代理 IP 地址是否有效。

    • 实现:

      使用 Proxy 类设置代理。

      尝试通过代理访问 https://www.baidu.com/

      如果响应码为 200,表示代理有效。

      支持多次重试(3 次)。

  5. getData

    • 功能:从指定的 URL 获取内容并返回为字符串。

    • 实现:

      通过 HttpURLConnection 建立连接。

      读取响应内容并返回。


主方法

  • main方法:

    功能:测试 updateIpSet 方法,并打印当前 ipSet 中的代理 IP。


总结

  • 核心流程:程序通过 API 抓取代理 IP,验证其可用性后存入集合,支持动态更新和多线程并发验证。

  • 线程安全:利用 CopyOnWriteArraySet 和线程池确保在多线程环境下数据操作的安全性。

三、如何使用动态Ip进行网站访问

项目逻辑:每次开始爬虫前,使用工具类从ip池中获取一条可用ip和端口号,并用此ip进行代理爬虫,以防止本机IP被封。

下面分别给出使用 JsoupHttpClient 结合代理 IP 访问网站的示例代码:


1. Jsoup 使用代理 IP

import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import java.io.IOException;
​
public class JsoupProxyExample {public static void main(String[] args) {// 获取代理 IP 和端口号(通过工具类获取)String proxyIp = "127.0.0.1";int proxyPort = 8080;
​// 要访问的目标 URLString targetUrl = "https://www.baidu.com";
​try {// 配置 Jsoup 使用代理 IPDocument document = Jsoup.connect(targetUrl).proxy(proxyIp, proxyPort) // 设置代理IP和端口号.timeout(5000)            // 设置超时时间.get();                   // 发送 GET 请求
​// 打印响应内容System.out.println(document.title());} catch (IOException e) {System.out.println("请求失败,错误信息: " + e.getMessage());}}
}

2. HttpClient 使用代理 IP

import org.apache.http.HttpHost;
import org.apache.http.client.methods.CloseableHttpResponse;
import org.apache.http.client.methods.HttpGet;
import org.apache.http.impl.client.CloseableHttpClient;
import org.apache.http.impl.client.HttpClients;
import org.apache.http.util.EntityUtils;
​
import java.io.IOException;
​
public class HttpClientProxyExample {public static void main(String[] args) {// 获取代理 IP 和端口号(通过工具类获取)String proxyIp = "127.0.0.1";int proxyPort = 8080;
​// 要访问的目标 URLString targetUrl = "https://www.baidu.com";
​// 配置 HttpClient 使用代理ip和端口号HttpHost proxy = new HttpHost(proxyIp, proxyPort);CloseableHttpClient httpClient = HttpClients.custom().setProxy(proxy) // 设置代理.build();
​
// 这里用 HTTP GET 请求作为演示,你也可以使用post请求并携带一些参数HttpGet httpGet = new HttpGet(targetUrl);
​try {CloseableHttpResponse response = httpClient.execute(httpGet)// 打印响应状态码System.out.println("Response Status: " + response.getStatusLine());
​// 打印响应内容String responseBody = EntityUtils.toString(response.getEntity());System.out.println("Response Content: \n" + responseBody);} catch (IOException e) {System.out.println("请求失败,错误信息: " + e.getMessage());} finally {try {httpClient.close();} catch (IOException e) {System.out.println("关闭 HttpClient 时出错: " + e.getMessage());}}}
}

注意事项

  1. 超时处理:建议设置超时时间,避免长时间等待。

  2. 目标网站设置:确保目标网站允许被代理访问,并避免触发反爬机制。

可以根据你的业务场景,将上述代码与 IP 池工具类集成,实现高效的代理访问功能。

四、实际爬虫过程中的注意事项

每条IP的有效时间为1~5分钟,如果爬虫过程中当前代理ip失效时,程序可以自动切换IP,并从当前爬到的页数开始继续爬虫。

实现思路:

  1. 首先,封装一个爬虫方法crawler( ),接收参数是int类型的页码,返回信息是String类型字符串,该方法若成功执行完毕则返回"success";
  2. 用try-catch包裹爬虫核心代码,当捕捉到异常后,调用工具类的checkIpAddress( )方法检查当前ip是否有效,若当前ip有效,则代表异常不是因为IP失效引起的,此时应手动抛出“爬虫异常”,并自定义异常信息;若当前ip已经失效,则很有可能因为是ip失效引起的异常,此时我们返回一个Json格式的字符串,其中记录爬虫中断时的页码和关键字。
  3. 当收到爬虫方法crawler( )返回的字符串str后,检查str,若是"success"则表示本次爬虫成功;否则,则用JSON.isValid( )方法解析该字符串,若解析成功则表示当前需要更换新的代理ip:然后①调用工具类获取新IP ②记录下字符串中的页码;
  4. 然后用新IP和当前页码再次调用爬虫方法crawler( )继续爬虫。

下面是用ChatGPT进行的一个上述思路的总结(如果觉得上面的大段字看着费劲,可以参考下面的🐶):

A.爬虫方法 crawler( ) 的实现要求:

方法功能

  • 方法名称:crawler( )
  • 参数:int 类型的页码。
  • 返回值:String 类型,表示爬虫状态。

执行逻辑

  • 核心功能:尝试爬取指定页码的数据。
  • 成功时:如果爬取成功,返回 "success"
  • 异常处理:使用 try-catch 包裹爬虫核心代码,捕捉可能出现的异常。捕获到异常后,调用工具类的 checkIpAddress( ) 方法,检查当前代理 IP 是否有效。
  1. 如果当前 IP 无效:可能因 IP 失效导致爬虫中断,返回一个 JSON 格式的字符串,其中包含:中断时的 关键字、中断时的 页码
  2. 如果当前 IP 有效:
    说明异常不是因 IP 失效引起的,此时需手动抛出“爬虫异常”。
    手动抛出的异常应包含自定义的异常信息。

B.调用 crawler( ) 方法的主逻辑:

调用 crawler( ) 方法后,接收其返回的字符串 str

检查返回值str

  • 如果 str == "success":表示本次爬虫成功,无需进一步操作。
  • 如果 str 不是 "success"
    • 使用 JSON.isValid( ) 方法解析该字符串。
    • 若解析成功则表示代理ip失效需要更换新的 IP。
      1. 执行以下步骤:① 获取新代理 IP:调用工具类获取新的代理 IP。
                                ② 记录页码:从 str 中提取中断时的页码。
      2. 使用新 IP 和记录的页码,重新调用 crawler( ) 方法,继续执行爬虫。

循环上述过程,直到爬虫任务完成。

五、代码中的亮点:

以下是工具类代码中使用的一些亮点技术:


1. 线程安全的集合类:CopyOnWriteArraySet

  • 特点CopyOnWriteArraySet 是基于 CopyOnWriteArrayList 实现的线程安全集合,适合在多线程环境下需要频繁读取且写操作较少的场景。

  • 应用:用于存储代理 IP,保证在多线程操作时不出现并发问题。

  • 亮点:通过 removeIf 方法移除无效 IP,实现高效、安全的集合操作。


2. 多线程并发操作

  • 线程池使用:通过 Executors.newFixedThreadPool(10) 创建固定大小的线程池。

  • 目的:并发执行代理 IP 的可用性检查,提高程序执行效率。

  • 亮点

    • 避免每次创建和销毁线程的开销,提升性能。

    • 子线程的检查操作不会阻塞主线程,从而使抓取和检查 IP 可以并发进行。


3. 动态更新代理 IP 池

  • 逻辑:updateIpSet()

    方法会定期更新 IP 池:

    • 删除无效 IP。

    • 当 IP 池为空时,自动调用 getIpList 方法获取新的代理 IP。

  • 亮点:

    • 保证了代理 IP 池的有效性,避免程序因代理失效而中断。

    • 自动化管理 IP 池,减少了人工干预的需求。


4. JSON 数据解析

  • 工具:使用 fastjson2 解析 JSON 数据。

  • 功能:

    • 从代理 IP 提供商的 API 返回结果中提取 IP 地址和端口。

    • 动态构造 AgencyIp 对象,并添加到代理 IP 池中。

  • 亮点fastjson2 提供了高效、简洁的 JSON 解析方式,适合处理复杂数据结构。


5. 动态代理ip的网络连接检查

  • 技术:通过 Proxy 类创建 HTTP 动态代理,并使用 HttpURLConnection 检查代理 IP 的可用性。

  • 亮点:

    • 使用 Proxy.Type.HTTP 动态指定代理服务器和端口。

    • 设置连接超时和读取超时,防止长时间阻塞。

    • 支持多次重试机制,提高代理验证的鲁棒性。


6. 可扩展的代理 IP 池管理逻辑

  • 结构设计:

    • getAvailableIp 方法封装了获取有效 IP 的逻辑,确保返回的 IP 一定有效。

    • checkIpAddress 方法独立负责代理 IP 的可用性检查,职责清晰。

    • getIpList 方法负责动态从 API 获取新的代理 IP。

  • 亮点:模块化设计,代码清晰且易于扩展,便于日后维护和功能拓展。


7. 异常处理机制

  • 重试机制:在 checkIpAddress 方法中,加入了重试逻辑,当某次检查失败时会进行多次尝试。

  • 故障恢复:当抓取 IP 或检查 IP 时发生异常,提供了详细的日志信息,有助于问题排查。

  • 亮点:通过异常捕获和日志记录,使程序更稳定、可靠。


8. 自动化与高效性

  • 亮点:

    • 自动化抓取和更新代理 IP,减少了手动操作。

    • 结合多线程和动态代理技术,提升了执行效率。


总结

代码通过线程安全集合、多线程处理、动态代理、JSON 数据解析等技术,高效实现了一个可靠的代理 IP 池管理工具。代码模块化清晰,具有良好的扩展性和稳定性,非常适合在分布式爬虫或高并发网络请求场景中应用。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/496362.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Python机器学习笔记(十三、k均值聚类)

聚类&#xff08;clustering&#xff09;是将数据集划分成组的任务&#xff0c;这些组叫作簇&#xff08;cluster&#xff09;。其目标是划分数据&#xff0c;使得一个簇内的数据点非常相似且不同簇内的数据点非常不同。与分类算法类似&#xff0c;聚类算法为每个数据点分配&am…

KNN分类算法 HNUST【数据分析技术】(2025)

1.理论知识 KNN&#xff08;K-Nearest Neighbor&#xff09;算法是机器学习算法中最基础、最简单的算法之一。它既能用于分类&#xff0c;也能用于回归。KNN通过测量不同特征值之间的距离来进行分类。 KNN算法的思想&#xff1a; 对于任意n维输入向量&#xff0c;分别对应于特征…

宝塔-firefox(Docker应用)-构建自己的Web浏览器

安装基础软件 宝塔中安装firefox(Docker应用) 。宝塔中需要先安装docker及docker-composefirefox配置安装 点击firefox应用&#xff0c;选择【安装配置】点击右边绿色按钮&#xff0c;进行安装&#xff0c;这一步等待docker-compose根据你的配置初始化docker应用 等待安装 …

如何从 0 到 1 ,打造全新一代分布式数据架构

导读&#xff1a;本文从 DIKW&#xff08;数据、信息、知识、智慧&#xff09; 模型视角出发&#xff0c;探讨数字世界中数据的重要性问题。接着站在业务视角&#xff0c;讨论了在不断满足业务诉求&#xff08;特别是 AI 需求&#xff09;的过程中&#xff0c;数据系统是如何一…

Docker部署GitLab服务器

一、GitLab介绍 1.1 GitLab简介 GitLab 是一款基于 Git 的开源代码托管平台&#xff0c;集成了版本控制、代码审查、问题跟踪、持续集成与持续交付&#xff08;CI/CD&#xff09;等多种功能&#xff0c;旨在为团队提供一站式的项目管理解决方案。借助 GitLab&#xff0c;开发…

芯片Tapeout power signoff 之IR Drop Redhawk Ploc文件格式及其意义

数字IC后端工程师在芯片流程最后阶段都会使用redhawk或voltus进行设计的IR Drop功耗signoff分析。必须确保静态&#xff0c;动态ir drop都符合signoff标准。 在做redhawk ir drop分析前&#xff0c;我们需要提供一个redhawk ploc供电点坐标。 数字IC设计后端实现前期预防IR D…

HarmonyOS NEXT 实战之元服务:静态案例效果---查看国内航班服务

背景&#xff1a; 前几篇学习了元服务&#xff0c;后面几期就让我们开发简单的元服务吧&#xff0c;里面丰富的内容大家自己加&#xff0c;本期案例 仅供参考 先上本期效果图 &#xff0c;里面图片自行替换 效果图1完整代码案例如下&#xff1a; Index代码 import { authen…

python+requests接口自动化测试框架实例详解

前段时间由于公司测试方向的转型&#xff0c;由原来的web页面功能测试转变成接口测试&#xff0c;之前大多都是手工进行&#xff0c;利用postman和jmeter进行的接口测试&#xff0c;后来&#xff0c;组内有人讲原先web自动化的测试框架移驾成接口的自动化框架&#xff0c;使用的…

前端:改变鼠标点击物体的颜色

需求&#xff1a; 需要改变图片中某一物体的颜色&#xff0c;该物体是纯色&#xff1b; 鼠标点击哪个物体&#xff0c;哪个物体的颜色变为指定的颜色&#xff0c;利用canvas实现。 演示案例 代码Demo <!DOCTYPE html> <html lang"en"><head>&l…

聊一聊 C#前台线程 如何阻塞程序退出

一&#xff1a;背景 1. 讲故事 这篇文章起源于我的 C#内功修炼训练营里的一位朋友提的问题&#xff1a;后台线程的内部是如何运转的 ? &#xff0c;犹记得C# Via CLR这本书中 Jeffery 就聊到了他曾经给别人解决一个程序无法退出的bug&#xff0c;最后发现是有一个 Backgrond…

Nmap基础入门及常用命令汇总

Nmap基础入门 免责声明&#xff1a;本文单纯分享技术&#xff0c;请大家使用过程中遵守法律法规~ 介绍及安装 nmap是网络扫描和主机检测的工具。作为一个渗透测试人员&#xff0c;必不可少的就是获取信息。那么nmap就是我们从互联网上获取信息的途径&#xff0c;我们可以扫描互…

Excel中一次查询返回多列

使用Excel或wps的时候&#xff0c;有时候需要一次查询返回多列内容&#xff0c;这种情况可以选择多次vlookup或者多次xlookup&#xff0c;但是这种做法费时费力不说&#xff0c;效率还有些低下&#xff0c;特别是要查询的列数过多时。我放了3种查询方法&#xff0c;效果图&…

NodeMCU驱动28BYJ-48型步进电机(Arduino)

NodeMCU NodeMCU开发板 此NodeMCU是在乐鑫公司&#xff08;Espressif Systems&#xff09;生产的ESP-12F模组的基础上封装好的具备WiFi功能的开源IoT开发板。本次选用安信可公司&#xff08;Ai-Thinker&#xff09;生产的CP2102版本的开发板。 28BYJ-48型步进电机 28BYJ-48型…

qt QZipReader详解

1、概述 QZipReader 是 Qt 中用于从 .zip 文件中读取和提取文件内容的类。它提供了便捷的方法来访问压缩包中的文件和目录&#xff0c;并允许你解压缩单个或多个文件。通过 QZipReader&#xff0c;你可以以编程方式读取 .zip 文件中的内容&#xff0c;并提取它们到目标目录中。…

html + css 淘宝网实战

之前有小伙伴说&#xff0c;淘宝那么牛逼你会写代码&#xff0c;能帮我做一个一样的淘宝网站吗&#xff0c;好呀&#xff0c;看我接下来如何给你做一个淘宝首页。hahh,开个玩笑。。。学习而已。 在进行html css编写之前 先了解下网页的组成和网页元素的尺寸吧 1.网页的组成 …

Ollama+OpenWebUI+llama3本地部署

引言 llama3在4月19日刚刚发布&#xff0c;官方的对比结果中在开源模型中堪称世界第一&#xff0c;整好周六日有时间&#xff0c;在魔搭社区上测试一下 2 安装Ollama 2.1 下载Ollama 登录Ollama官网下载Ollama安装包 GitHub&#xff1a;https://github.com/ollama/ollama?t…

【vue2父组件调用子组件方法之slot的使用】

父组件调用子组件方法之slot的使用 具体功能需求&#xff1a; 一个页面&#xff0c;点击按钮&#xff0c;打开一个弹窗。弹窗有自定义表单和公共表单&#xff0c;提交的时候要获取两个表单的数据以及复显表单数据 为什么使用插槽了&#xff0c;因为我需要在弹窗中复用公共表单…

【HarmonyOS】鸿蒙将资源文件夹Resource-RawFile下的文件存放到沙箱目录下

【HarmonyOS】鸿蒙将资源文件夹Resource-RawFile下的文件存放到沙箱目录下 一、问题背景 应用开发中&#xff0c;我们经常会遇到一些文件原先是放在资源文件夹 rawfile下&#xff0c;但是逻辑处理时&#xff0c;需要转移到本地沙箱才能操作。这种情况下&#xff0c;就需要将将…

ubuntu 网络管理--NetworkManager

ubuntu 网络管理--NetworkManager 1 介绍2 NetworkManager 命令2 nmcli 命令显示可用的wifi AP连接wifi检查网络连接 ?? 如何删除删除网络连接查看设备状态添加一个新的以太网连接设置静态 IP 地址启用并测试连接添加新的wifi连接 3 其他命令参考 1 介绍 NetworkManager 是标…

Unity功能模块一对话系统(1)前置准备

也许你也曾被游戏中的对话系统深深吸引&#xff0c;那些精心设计的对白、鲜活的角色配音、甚至是简单的文字对话&#xff0c;往往能让玩家产生强烈的代入感和情感共鸣。如果你正在开发一款游戏&#xff0c;或者计划为你的项目加入一个引人入胜的对话系统&#xff0c;那么 Unity…