1024程序员节特辑 | ELK+ 用户画像构建个性化推荐引擎,智能实现“千人千面”

专栏集锦,赶紧收藏以备不时之需

Spring Cloud实战专栏:https://blog.csdn.net/superdangbo/category_9270827.html

Python 实战专栏:https://blog.csdn.net/superdangbo/category_9271194.html

Logback 详解专栏:https://blog.csdn.net/superdangbo/category_9271502.html

tensorflow专栏:https://blog.csdn.net/superdangbo/category_8691332.html

Redis专栏:https://blog.csdn.net/superdangbo/category_9950790.html

1024程序员节特辑文章:

1024程序员节特辑 | OKR VS KPI谁更合适?

1024程序员节特辑 | Spring Boot实战 之 MongoDB分片或复制集操作

Spring实战系列文章:

Spring实战 | Spring AOP核心秘笈之葵花宝典

Spring实战 | Spring IOC不能说的秘密?

国庆中秋特辑系列文章:

国庆中秋特辑(八)Spring Boot项目如何使用JPA

国庆中秋特辑(七)Java软件工程师常见20道编程面试题

国庆中秋特辑(六)大学生常见30道宝藏编程面试题

国庆中秋特辑(五)MySQL如何性能调优?下篇

国庆中秋特辑(四)MySQL如何性能调优?上篇

国庆中秋特辑(三)使用生成对抗网络(GAN)生成具有节日氛围的画作,深度学习框架 TensorFlow 和 Keras 来实现

国庆中秋特辑(二)浪漫祝福方式 使用生成对抗网络(GAN)生成具有节日氛围的画作

国庆中秋特辑(一)浪漫祝福方式 用循环神经网络(RNN)或长短时记忆网络(LSTM)生成祝福诗词

目录

  • 一、ELK介绍
  • 二、ELK安装部署
  • 三、ELK跟不同技术结合,实现“千人千面”
  • 四、ELK + 用户画像,用Java实现“千人千面”
  • 五、ELK + 用户画像,用Python实现“千人千面”

在这里插入图片描述

一、ELK介绍

ELK,全称 Elasticsearch、Logstash、Kibana,是一种流行的开源日志管理和分析平台。ELK Stack 的三个主要组件分别为 Elasticsearch(分布式搜索和分析引擎)、Logstash(数据收集和处理工具)以及 Kibana(数据可视化工具)。
在这里插入图片描述

1、发展历史
ELK 的历史可以追溯到 2012 年,当时 Elasticsearch 项目创始人 Shay Banon 发布了 Elasticsearch 的首个版本。随着项目的发展,Logstash 和 Kibana 相继诞生,并与 Elasticsearch 共同构成了 ELK Stack。
2、组件详细介绍

  1. Elasticsearch
    Elasticsearch 是一个高度可扩展的开源全文搜索和分析引擎,它基于 Apache Lucene 项目开发。Elasticsearch 提供了分布式、多台机器上的搜索和分析功能,能够快速存储、检索和分析大量数据。在 ELK Stack 中,Elasticsearch 负责存储和查询日志数据。
  2. Logstash
    Logstash 是一个数据收集和处理的强大工具,它可以从各种数据源(如日志文件、数据库和消息队列)收集数据,并对数据进行过滤、分析和格式化。Logstash 基于事件驱动架构,能够高并发地处理大量数据。在 ELK Stack 中,Logstash 负责从各种数据源收集日志数据,并将其发送到 Elasticsearch 进行存储和分析。
  3. Kibana
    Kibana 是一个用户友好的日志分析和可视化工具,它可以帮助用户通过图表、表格和仪表盘等直观的方式查看和分析日志数据。Kibana 基于 Web 界面,支持多种数据分析功能,如聚合、过滤和可视化。在 ELK Stack 中,Kibana 负责展示和分析 Elasticsearch 存储的日志数据。
    3、案例
  4. 日志收集和分析
    某公司有多个服务器,需要对各服务器的日志进行统一收集和分析。使用 ELK Stack,可以在各个服务器上安装 Filebeat,将日志收集到 Logstash,然后通过 Logstash 发送到 Elasticsearch 进行存储和分析。最后,通过 Kibana 进行可视化展示。
  5. 实时数据监控
    某公司在生产环境中需要实时监控各项关键指标,以确保系统的稳定运行。使用 ELK Stack,可以实时收集和分析各项指标数据,并通过 Kibana 进行可视化展示,以便实时了解系统运行状况。
  6. 安全事件分析
    某公司需要对安全事件进行实时监控和分析,以便及时发现并应对潜在的安全威胁。使用 ELK Stack,可以收集和分析安全事件数据,并通过 Kibana 进行可视化展示,以便快速识别异常并采取措施。
    4、总结
    ELK Stack 是一种强大的日志管理和分析工具,它可以帮助用户高效地收集、存储、分析和可视化大量日志数据。ELK Stack 的三个主要组件分别为 Elasticsearch(分布式搜索和分析引擎)、Logstash(数据收集和处理工具)以及 Kibana(数据可视化工具)。ELK Stack 在多个领域都有广泛的应用,如日志收集和分析、实时数据监控以及安全事件分析等。通过使用 ELK Stack,用户可以更加方便地管理和分析日志数据,从而提高运维效率。

二、ELK安装部署

ELK 是指 Elasticsearch、Logstash 和 Kibana 三个开源工具的组合,通常用于大规模日志数据处理和可视化。以下是 ELK 的安装和部署步骤:

  1. 准备环境
    确保你的服务器满足以下要求:
  • 操作系统:Ubuntu 18.04 LTS
  • 内存:至少 4GB
  • 硬盘:至少 20GB
  1. 安装 Java
    在 Ubuntu 服务器上安装 Java,运行以下命令:
sudo apt-get update  
sudo apt-get install openjdk-11-jdk  

检查 Java 版本:

java -version  
  1. 下载并安装 Elasticsearch
    访问 Elasticsearch 官方网站下载合适版本的 Elasticsearch:https://www.elastic.co/downloads/elasticsearch
    下载完成后,将 Elasticsearch 压缩包上传到服务器,然后解压:
sudo mkdir -p /usr/share/elasticsearch  
sudo tar -xzf elasticsearch-7.10.2.tar.gz -C /usr/share/elasticsearch --strip-components=1  

设置 Elasticsearch 的环境变量:

export ES_HOME=/usr/share/elasticsearch  
export PATH=$PATH:$ES_HOME/bin  

创建 Elasticsearch 配置文件:

sudo tee /etc/elasticsearch/elasticsearch.yml << EOL  
cluster.name: my-cluster  
node.name: my-node  
network.host: 0.0.0.0  
http.port: 9200  
discovery.seed_hosts: ["host1", "host2"]  
cluster.initial_master_nodes: ["node-1", "node-2"]  
EOL  

启动 Elasticsearch:

sudo systemctl start elasticsearch  

检查 Elasticsearch 是否运行正常:

curl -X GET "localhost:9200/"  
  1. 下载并安装 Logstash
    访问 Logstash 官方网站下载合适版本的 Logstash:https://www.elastic.co/downloads/logstash
    在这里插入图片描述

下载完成后,将 Logstash 压缩包上传到服务器,然后解压:

sudo mkdir -p /usr/share/logstash  
sudo tar -xzf logstash-7.10.2.tar.gz -C /usr/share/logstash --strip-components=1  

创建 Logstash 配置文件:

sudo tee /etc/logstash/logstash.conf << EOL  
input {  beats {  port => 5044  }  
}
filter {  if "apache" in [$log][app] {  grok {  match => { "message" => "%{GREEDYDATA:apache_message}" }  }  } else if "nginx" in [$log][app] {  grok {  match => { "message" => "%{GREEDYDATA:nginx_message}" }  }  }  
}
output {  if "apache" in [$log][app] {  elasticsearch {  hosts => ["http://localhost:9200"]  index => "my-index-%{+YYYY.MM.dd}"  }  } else if "nginx" in [$log][app] {  elasticsearch {  hosts => ["http://localhost:9200"]  index => "my-index-%{+YYYY.MM.dd}"  }  }  
}
EOL  

启动 Logstash:

sudo systemctl start logstash  
  1. 下载并安装 Kibana
    访问 Kibana 官方网站下载合适版本的 Kibana:https://www.elastic.co/downloads/kibana
    在这里插入图片描述

下载完成后,将 Kibana 压缩包上传到服务器,然后解压:

sudo mkdir -p /usr/share/kibana  
sudo tar -xzf kibana-7.10.2.tar.gz -C /usr/share/kibana --strip-components=1  

创建 Kibana 配置文件:

sudo tee /etc/kibana/kibana.yml << EOL  
server.port: 5601  
server.host: "0.0.0.0"  
elasticsearch.hosts: ["http://localhost:9200"]  
EOL  

启动 Kibana:

sudo systemctl start kibana  

在这里插入图片描述

检查 Kibana 是否运行正常,访问 http://your_server_ip:5601,如果看到 Kibana 的欢迎页面,则说明安装成功。

  1. 配置 Elasticsearch、Logstash 和 Kibana 的集成
    在 Elasticsearch 的配置文件中,添加以下内容:
http.port: 9200  
discovery.seed_hosts: ["host1", "host2"]  
cluster.initial_master_nodes: ["node-1", "node-2"]  

在 Logstash 的配置文件中,添加以下内容:

output {  elasticsearch {  hosts => ["http://localhost:9200"]  index => "my-index-%{+YYYY.MM.dd}"  }  
}

在 Kibana 的配置文件中,添加以下内容:

server.port: 5601  
server.host: "0.0.0.0"  
elasticsearch.hosts: ["http://localhost:9200"]  
  1. 启动 Elasticsearch、Logstash 和 Kibana
    在命令行中,分别启动 Elasticsearch、Logstash 和 Kibana:
sudo systemctl start elasticsearch  
sudo systemctl start logstash  
sudo systemctl start kibana  

现在,你已经成功安装并部署了 ELK。

三、ELK跟不同技术结合,实现“千人千面”

ELK 技术可以与多种技术结合,实现千人千面的需求。以下是一些建议,并结合具体案例和代码进行说明:

  1. ELK + 用户画像:
    用户画像是对用户的基本信息、兴趣爱好、消费习惯等进行建模。可以通过收集用户的行为数据,结合机器学习和大数据技术,分析用户的兴趣和需求。将分析结果存储在用户画像系统中,为用户提供个性化推荐。
    案列:
  • 收集用户行为数据,如搜索记录、浏览记录、购买记录等。
  • 使用机器学习算法(如决策树、SVM、聚类等)分析用户行为数据,构建用户画像。
  • 将用户画像与 ELK 结合,实现基于用户画像的个性化推荐。
  1. ELK + 协同过滤:
    协同过滤是一种基于用户历史行为数据的推荐算法,可以挖掘用户之间的相似性以及物品之间的相似性。通过协同过滤算法,可以为用户提供个性化推荐。
    案列:
  • 收集用户的历史行为数据,如评分、购买记录等。
  • 使用协同过滤算法(如基于用户的协同过滤、基于物品的协同过滤等)挖掘用户和物品之间的相似性。
  • 将协同过滤的结果与 ELK 结合,实现基于协同过滤的个性化推荐。
  1. ELK + 深度学习:
    深度学习可以在大规模数据上学习用户的兴趣和需求,为用户提供个性化推荐。可以通过神经网络、卷积神经网络、循环神经网络等算法进行深度学习。
    案列:
  • 收集用户行为数据,如点击记录、浏览记录等,并将其转化为适合深度学习模型输入的数据格式。
  • 使用深度学习模型(如神经网络、卷积神经网络、循环神经网络等)训练模型。
  • 将深度学习模型的输出与 ELK 结合,实现基于深度学习的个性化推荐。
    以上仅为示例,实际应用中可以根据业务需求和场景进行调整。在实际项目中,ELK 通常作为整个推荐系统的基础设施,与其他技术(如用户画像、协同过滤、深度学习等)相结合,实现千人千面的个性化推荐。

四、ELK + 用户画像,用Java实现“千人千面”

ELK(Elasticsearch、Logstash、Kibana)是一个大数据处理和可视化平台,而用户画像则是根据用户的行为、兴趣、喜好等信息构建的用户模型。实现千人千面,即为目标用户提供个性化的内容和服务。
要实现 ELK + 用户画像的千人千面,你需要完成以下步骤:

  1. 收集用户数据:收集用户的行为数据、兴趣数据、喜好数据等。这些数据可以从用户的浏览记录、购买记录、搜索记录等渠道获取。
  2. 构建用户画像:根据收集到的用户数据,使用机器学习算法(例如决策树、支持向量机等)构建用户画像。用户画像包括用户的年龄、性别、职业、地域、消费水平等信息。
  3. 存储用户画像:将构建好的用户画像存储在 Elasticsearch 中,以便后续的查询和推荐。
  4. 实现推荐算法:使用 Logstash 处理用户行为数据,然后结合用户画像,实现个性化推荐。推荐算法可以使用基于内容的推荐、协同过滤、矩阵分解等。
  5. 输出推荐结果:将推荐结果可视化在 Kibana 中,提供给用户。
    以下是一个简化的 Java 代码示例,用于实现 ELK + 用户画像的千人千面:
    要安装所需的库,您需要执行以下步骤:
  6. 添加 Maven 依赖项
    在您的 Maven 项目的 pom.xml 文件中,添加以下依赖项:
<dependencies>  <dependency>  <groupId>org.elasticsearch</groupId>  <artifactId>elasticsearch</artifactId>  <version>7.9.3</version>  </dependency>  <dependency>  <groupId>com.fasterxml.jackson.core</groupId>  <artifactId>jackson-databind</artifactId>  <version>2.12.3</version>  </dependency>  
</dependencies>  
  1. 创建 UserProfile 类
    创建一个表示用户画像的类,包括用户 ID、年龄、性别、兴趣等属性。
public class UserProfile {  private String userId;  private int age;  private String gender;  private List<String> interests;// 构造函数、getter 和 setter 方法  
}
  1. 创建 UserProfileService
    创建一个 UserProfileService 类,用于处理用户画像的相关操作,如创建、更新、查询等。
import com.fasterxml.jackson.databind.ObjectMapper;  
import org.elasticsearch.action.search.SearchRequest;  
import org.elasticsearch.action.search.SearchResponse;  
import org.elasticsearch.client.RestHighLevelClient;  
import org.elasticsearch.index.query.QueryBuilders;  
import org.elasticsearch.search.builder.SearchSourceBuilder;  
import org.elasticsearch.search.fetch.FetchSourceContext;  
import org.elasticsearch.search.fetch.SearchHit;  
import org.elasticsearch.search.fetch.SearchHits;  
import org.elasticsearch.search.highlight.HighlightBuilder;  
import org.elasticsearch.search.highlight.HighlightField;
import java.io.IOException;  
import java.util.List;  
import java.util.stream.Collectors;
public class UserProfileService {  private RestHighLevelClient client;  private ObjectMapper objectMapper;public UserProfileService(RestHighLevelClient client) {  this.client = client;  this.objectMapper = new ObjectMapper();  }public UserProfile createOrUpdateUserProfile(UserProfile userProfile) throws IOException {  // 保存用户画像到 Elasticsearch  // ...  }public UserProfile getUserProfileById(String userId) throws IOException {  // 从 Elasticsearch 查询用户画像  // ...  }public List<UserProfile> getSimilarUserProfiles(String userId, int topN) throws IOException {  // 查询与目标用户相似的用户画像  // ...  }  
}
  1. 实现基于用户画像的推荐
    在 UserProfileService 中添加一个推荐方法,根据用户画像推荐相关商品。
public List<String> recommendItems(String userId, int topN) throws IOException {  // 分析用户行为数据,提取特征  SearchRequest searchRequest = new SearchRequest(INDEX_NAME);  SearchSourceBuilder searchSourceBuilder = new SearchSourceBuilder();  searchSourceBuilder.query(QueryBuilders.matchQuery("user_id", userId));  // 设置分页和排序  searchSourceBuilder.from(0);  searchSourceBuilder.size(topN);  // 获取用户行为数据  SearchResponse searchResponse = client.search(searchRequest, RequestOptions.DEFAULT, searchSourceBuilder);  SearchHits<UserBehavior> searchHits = searchResponse.getHits(UserBehavior.class);  // 计算相似度  List<String> recommendedItems = searchHits.getSearchHits().stream()  .map(hit -> hit.getSourceAsString("item_name"))  .collect(Collectors.toList());  return recommendedItems;  
}
  1. 创建 UserBehavior 类
    创建一个表示用户行为的类,包括用户 ID、商品 ID、购买时间
import java.util.Date;
public class UserBehavior {  private String userId;  private String productId;  private Date purchaseTime;public UserBehavior(String userId, String productId, Date purchaseTime) {  this.userId = userId;  this.productId = productId;  this.purchaseTime = purchaseTime;  }// getter and setter methods@Override  public String toString() {  return "UserBehavior{" +  "userId='" + userId + '\'' +  ", productId='" + productId + '\'' +  ", purchaseTime=" + purchaseTime +  '}';  }  
}

五、ELK + 用户画像,用Python实现“千人千面”

以下是一个简单的基于 ELK 和 Python 实现用户画像的示例:

  1. 安装所需库:
pip install elasticsearch  
pip install logstash  
pip install kibana  
pip install pandas  
pip install scikit-learn  
  1. 编写 Python 脚本,实现用户画像分析和推荐:
import pandas as pd  
import numpy as np  
from sklearn.feature_extraction.text import TfidfVectorizer  
from sklearn.metrics.pairwise import cosine_similarity  
from elasticsearch import Elasticsearch
# 连接 Elasticsearch  
es = Elasticsearch([{'host': 'localhost', 'port': 9200}])
# 设置索引和类型  
index_name = 'user_behavior'  
type_name = 'log'
# 分析用户行为数据,提取特征  
def analyze_user_behavior(user_id):  query = {  'query': {  'match': {'user_id': user_id}  }  }  user_behavior = es.search(index=index_name, type=type_name, body=query)  user_behavior_df = pd.DataFrame(user_behavior['hits']['hits'])  user_behavior_df.drop(['_source'], axis=1, inplace=True)  return user_behavior_df
# 计算用户画像之间的相似度  
def calculate_similarity(user1, user2):  user1_behavior = analyze_user_behavior(user1)  user2_behavior = analyze_user_behavior(user2)  # 使用 TF-IDF 计算特征向量  vectorizer = TfidfVectorizer()  user1_features = vectorizer.fit_transform(user1_behavior['item_name'])  user2_features = vectorizer.fit_transform(user2_behavior['item_name'])  # 计算相似度  similarity = cosine_similarity(user1_features, user2_features)  return similarity
# 推荐物品  
def recommend_items(user_id, top_n):  # 获取所有用户的行为数据  all_user_behavior = analyze_user_behavior('all')  # 计算所有用户与当前用户的相似度  all_user_similarity = calculate_similarity(user_id, 'all')  # 获取相似度最高的前 top_n 个用户  top_n_users = all_user_similarity.argsort()[-top_n:][::-1]  # 获取 top_n 个用户的行为数据  top_n_user_behavior = [analyze_user_behavior(user) for user in top_n_users]  # 计算 top_n 个用户购买的物品  top_n_items = pd.concat([top_n_user_behavior[i]['item_name'] for i in range(top_n)], axis=1)  # 返回 top_n 个推荐物品  return top_n_items.reset_index(drop=True)
# 示例  
user_id = 'user1'  
top_n = 3  
recommended_items = recommend_items(user_id, top_n)  
print(f"给用户 {user_id} 推荐的前 {top_n} 个物品:{recommended_items}")  

这个示例仅用于说明如何结合 ELK 和 Python 实现基于用户画像的个性化推荐。实际应用中需要根据具体需求和场景进行调整。另外,推荐算法也可以根据业务需求选择其他更复杂的算法,如基于内容的推荐、协同过滤、深度学习等。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/163069.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

《Operating Systems:Three Easy Pieces》 操作系统导论【二】 虚拟化内存

【Operating Systems:Three Easy Pieces 操作系统导论 】 (九) 抽象&#xff1a;地址空间 早期系统 操作系统曾经是一组函数&#xff08;实际上是一个库&#xff09;&#xff0c;在内存中&#xff08;在本例中&#xff0c;从物理地址0开始&#xff09;&#xff0c;然后有一…

程序员各阶段应该掌握的技术与能力

人人都是产品经理 | 产品经理、产品爱好者学习交流平台 (woshipm.com)

华为云云耀云服务器L实例评测|使用clickhouse-benchmark工具对ClickHouse的性能测试

目录 引言 1 ClickHouse简介 2 利用docker安装ClickHouse 2.1 安装Docker 2.2 下载ClickHouse Docker镜像 2.3 创建ClickHouse容器 2.4 访问ClickHouse 3 创建测试表 4 运行 clickhouse-benchmark 5 分析结果 结语 引言 利用华为云的云耀云服务器L实例&#xff0c…

lunux查找占用内存前10的进程

1、使用Top命令查询进程 输入 top 命令&#xff0c;然后按下大写M按照内存MEM排序&#xff0c;按下大写P按照CPU排序。 2、查询占用CPU最高的前10个进程 ps aux|head -1;ps aux|grep -v PID|sort -rn -k 3|head 3、查询占用内存最大的前10个进程 ps aux|head -1;ps aux|grep …

【ELK使用指南 2】常用的 Logstash filter 插件详解(附应用实例)

Logstash filter 一、logstash filter过滤插件的常用模块简介二、grok 正则捕获插件2.1 grok插件的作用2.2 内置正则表达式2.3 自定义正则表达式 三、mutate 数据修改插件3.1 mutate插件的作用3.2 常用的配置选项3.3 mutate插件应用实例 四、multiline 多行合并插件4.1 multili…

电容元件符号与工作原理:电子电路中的电荷储存利器 | 百能云芯

电容是电子电路中常见的元件之一&#xff0c;它具有储存电荷的能力。在电路图中&#xff0c;电容有一个特定的元件符号&#xff0c;用于表示其存在和连接方式。接下来&#xff0c;云芯带您深入了解电容的元件符号以及它的工作原理。 电容的元件符号通常由两个平行的线段组成&am…

世界粮食日:宏工科技有对策,赋能食品生产高效可持续发展

10月16日是世界粮食日。随着全球人口的增长&#xff0c;人们对高品质食品的需求也越来越大&#xff0c;如何实现“更好生产、更好营养”成为了食品生产与供应的重要话题。15年来&#xff0c;宏工科技专注物料处理自动化领域&#xff0c;提供食品物料处理一站式解决方案以提高生…

滴滴弹性云基于 K8S 的调度实践

上篇文章详细介绍了弹性云混部的落地历程&#xff0c;弹性云是滴滴内部提供给网约车等核心服务的容器平台&#xff0c;其基于 k8s 实现了对海量 node 的管理和 pod 的调度。本文重点介绍弹性云的调度能力&#xff0c;分为以下部分&#xff1a; 调度链路图&#xff1a;介绍当前弹…

Pycharm安装第三方库的详细教程

**常用方法一&#xff1a;**内部安装 这种安装方法是我们经常使用的一种&#xff0c;进入到pycharm界面中&#xff0c;点击菜单栏上的file选项&#xff0c;选择settings&#xff0c; 找到界面中的Project Interpreter 或者 Python interpreter&#xff0c;点击““号&#xf…

2023 年诺贝尔奖花落谁家?

文章目录 2023 年诺贝尔奖&#xff0c;花落谁家&#xff1f;2023年诺贝尔经济学奖2023年诺贝尔和平奖2023年诺贝尔文学奖2023年诺贝尔化学奖2023年诺贝尔物理学奖2023年诺贝尔生理学/医学奖 2023 年诺贝尔奖&#xff0c;花落谁家&#xff1f; 2023年诺贝尔奖于10月2日至9日陆续…

淘宝开放平台 API 获取淘宝天猫店铺订单接口

业务场景&#xff1a;作为全球最大的 B2C 电子商务平台之一&#xff0c;淘宝&#xff08;天猫&#xff09;平台提供了丰富的商品资源&#xff0c;吸引了大量的全球买家和卖家。为了方便开发者接入淘宝平台&#xff0c;淘宝平台提供了丰富的 API 接口&#xff0c;其中商品详情接…

Linux-Jconsole连接远程服务器

Jconsole连接远程服务器 一、修改jmxremote.password.template文件二、启动jar项目三、jconsole远程连接1、打开的你jconsole2、远程连接 一、修改jmxremote.password.template文件 进去你的/idk/jre/lib/management目录下可以看到jmxremote.password.template文件 修改jmxr…

23.项目开发之量化交易抓取数据QuantTradeData(二)

后端业务&#xff1a;定时更新“A股日线行情”数据 需求说明 为了获取前一天的最新数据&#xff0c;我们需要每天晚上10点定时刷新daily股票列表基础信息&#xff0c;并将最新数据插入或更新到数据库中。 如果该内容是在当天交易日信息未更新前查询&#xff08;15~16点之前&a…

NAT网关在阿里云的应用

NAT网关&#xff08;Network Address Translation Gateway&#xff09;是一种网络地址转换服务&#xff0c;提供NAT代理&#xff08;SNAT和DNAT&#xff09;能力。NAT是用于在本地网络中使用私有地址&#xff0c;在连接互联网时转而使用全局 IP 地址的技术。NAT实际上是为解决I…

kubernetes 多集群管理和联邦集群将是下一波运维浪潮

问题 调研一下国内外K8s平台软件&#xff0c;哪个具有创建标准的K8s集群的功能&#xff1f; 背景 随着云原生技术在越来越多的企业和组织中的大规模落地&#xff0c;如何高效、可靠地管理大规模资源池以应对不断增长的业务挑战成为了当下云原生技术的关键挑战。在过去的很长…

JAVA基础(JAVA SE)学习笔记(四)IDEA安装、使用、设置、断点、乱码汇总

前言 1. 学习视频&#xff1a; 尚硅谷Java零基础全套视频教程(宋红康2023版&#xff0c;java入门自学必备)_哔哩哔哩_bilibili 2023最新Java学习路线 - 哔哩哔哩 正文 JAVA基础&#xff08;JAVA SE&#xff09;学习笔记&#xff08;一&#xff09;JAVA学习路线、行业了解…

数据结构与算法之图: Leetcode 65. 有效数字 (Typescript版)

有效数字 https://leetcode.cn/problems/valid-number/ 描述 有效数字&#xff08;按顺序&#xff09;可以分成以下几个部分&#xff1a; 一个 小数 或者 整数&#xff08;可选&#xff09;一个 ‘e’ 或 ‘E’ &#xff0c;后面跟着一个 整数 小数&#xff08;按顺序&#…

FL Studio21最新中文破解进阶高级完整版安装下载教程

目前水果软件最版本是FL Studio21&#xff0c;它让你的计算机就像是全功能的录音室&#xff0c;大混音盘&#xff0c;非常先进的制作工具&#xff0c;让你的音乐突破想象力的限制。喜欢音乐制作的小伙伴千万不要错过这个功能强大&#xff0c;安装便捷的音乐软件哦&#xff01;如…

Apache Doris (四十三): Doris数据更新与删除 - Update数据更新

🏡 个人主页:IT贫道_大数据OLAP体系技术栈,Apache Doris,Clickhouse 技术-CSDN博客 🚩 私聊博主:加入大数据技术讨论群聊,获取更多大数据资料。 🔔 博主个人B栈地址:豹哥教你大数据的个人空间-豹哥教你大数据个人主页-哔哩哔哩视频 目录 1. Update数据更新原理

毫米波雷达2-雷达的工作模式

文章目录 flash mode: 用于烧写functional mode: Power off the board and remove the jumper from only header SOP2 (this puts the board back in functional mode) flash mode: 用于烧写 functional mode: Power off the board and remove the jumper from only header SOP…