Elasticsearch集群部署(下)

目录

上篇:Elasticsearch集群部署(上)-CSDN博客

七. Filebeat 部署

八. 部署Kafka

九. 集群测试


链接:https://pan.baidu.com/s/1AFXSmDdY5xBb7g35ipKoaw?pwd=fa9m 
提取码:fa9m 
 

七. Filebeat 部署

为什么用 Filebeat ,而不用原来的 Logstash 呢?  

原因很简单,资源消耗比较大。

由于 Logstash 是跑在 JVM 上面,资源消耗比较大,后来作者用 GO 写了一个功能较少但是资源消耗也小的轻量级的 Agent 叫 Logstash-forwarder。

后来作者加入 elastic.co 公司, Logstash-forwarder 的开发工作给公司内部 GO 团队来搞,最后命名为 Filebeat。

Filebeat 需要部署在每台应用服务器上,可以通过 Salt 来推送并安装配置。

新增一台虚拟机参照如下配置并进行初始化操作

软件版本 filebeat-7.13.2-x86_64.rpm

安装软件主机名IP地址系统版本配置
filebeatfilebeat192.168.226.27Rocky_linux9.41核2G

 修改主机名

#对192.168.226.27主机操作
[root@localhost ~]# hostnamectl set-hostname filebeat

关闭防火墙和selinux,进行时间同步,IP固定,初始化脚本可以用上集里的配置。

1. 下载安装包

[root@filebeat ~]# curl -L -O https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.13.2-x86_64.rpm

这个安装命令也可以在kibana页面找到   主页>添加数据>nginx日志>RPM

2. 安装

[root@filebeat ~]# yum install -y filebeat-7.13.2-x86_64.rpm

3. 修改配置filebate 传输给 logstash

在上篇最后我们配置logstash收集nginx日志,这里就只需要修改filebate配置即可。

[root@filebeat ~]# vim /etc/filebeat/filebeat.yml 

修改下述Filebeat inputs,Logstash Output,将Elasticsearch Output配置里全部注释

filebeat.inputs:
- type: logenabled: truepaths:- /var/log/dnf.log
output.logstash:hosts: ["192.168.226.23:5044"]

 现在回到192.168.226.23主机,修改stdin.conf和stdout.conf文件

先停止logstash服务,再修改配置 

[root@nginx ~]# vim /usr/local/logstash-7.13.2/conf/stdin.conf 
input {beats {port => 5044}
}
filter {grok {match => { "message" => "%{TIMESTAMP_ISO8601:timestamp} %{LOGLEVEL:loglevel} %{GREEDYDATA:message}" }}date {match => ["timestamp", "yyyy-MM-dd'T'HH:mm:ssZZ"]}
}
[root@nginx ~]# vim /usr/local/logstash-7.13.2/conf/stdout.conf
output {stdout {codec => rubydebug}elasticsearch {hosts => ["192.168.226.20","192.168.226.21","192.168.226.22"]index => 'dnf_log-%{+YYYY-MM-dd}'}
}

再次启动logstash

[root@nginx ~]# cd /usr/local/logstash-7.13.2
[root@nginx logstash-7.13.2]# ./bin/logstash -f conf/

4. 启动filebeat主机

[root@filebeat ~]# systemctl enable --now filebeat

启动后切换到nginx主机,即192.168.226.23,看输出信息:

这样就是成功收集并处理了

5. 查看kibana的web页面

6. 创建索引 

 Filebeat只有输出和输出,需要安装在需要收集的应用主机中,它没有Logstash的过滤能力,但是可以通过Filebeat收集再输入给Logstash处理后再发送给ES集群存储,以上就是完成了通过Filebeat收集后转发给Logstash处理步骤。

7. 下载安装Filebeat收集ES的日志

打开Kibana官方配置文档参考

切换到es1主机,即192.168.226.20主机

下载并安装

[root@es1 ~]# curl -L -O https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.13.2-x86_64.rpm
[root@es1 ~]# sudo rpm -vi filebeat-7.13.2-x86_64.rpm

8. 配置Filebeat

参考修改

[root@es1 ~]# vim /etc/filebeat/filebeat.yml
setup.kibana:host: "192.168.226.20:5601"
output.elasticsearch:hosts: ["192.168.226.20:9200","192.168.226.21:9200","192.168.226.22:9200"]username: "es"password: "es"

9. 启用和配置 elasticsearch 模块

[root@es1 ~]# sudo filebeat modules enable elasticsearch

打开这里配置文档第二行的链接是一个官方配置文档

Elasticsearch module | Filebeat Reference [7.13] | Elastic

根据文档提示,选择要收集的日志,并配置正确的该类型日志路径,不想收集的类型可以选择可以配置false即可。

[root@es1 ~]# vim /etc/filebeat/modules.d/elasticsearch.yml
# Module: elasticsearch
# Docs: https://www.elastic.co/guide/en/beats/filebeat/7.13/filebeat-module-elasticsearch.html- module: elasticsearch# Server logserver:enabled: true# Set custom paths for the log files. If left empty,# Filebeat will choose the paths depending on your OS.var.paths:- /data/elasticsearch/logs/*.log- /data/elasticsearch/logs/*_server.jsongc:enabled: true# Set custom paths for the log files. If left empty,# Filebeat will choose the paths depending on your OS.var.paths:- /data/elasticsearch/logs/gc.log.[0-9]*- /data/elasticsearch/logs/gc.logaudit:enabled: true# Set custom paths for the log files. If left empty,# Filebeat will choose the paths depending on your OS.var.paths:- /data/elasticsearch/logs/*_access.log- /data/elasticsearch/logs/*_audit.jsonslowlog:enabled: true# Set custom paths for the log files. If left empty,# Filebeat will choose the paths depending on your OS.var.paths:- /data/elasticsearch/logs/*_index_search_slowlog.log- /data/elasticsearch/logs/*_index_indexing_slowlog.log- /data/elasticsearch/logs/*_index_search_slowlog.json- /data/elasticsearch/logs/*_index_indexing_slowlog.jsondeprecation:enabled: true# Set custom paths for the log files. If left empty,# Filebeat will choose the paths depending on your OS.var.paths:- /data/elasticsearch/logs/*_deprecation.log- /data/elasticsearch/logs/*_deprecation.json

 

10. 启动 Filebeat

setup 命令加载 Kibana 仪表板。如果仪表板已设置,就省略此命令。

这里我也没有显示,因此我也要执行加载仪表盘命令,执行后等待一会即可。

[root@es1 ~]# sudo filebeat setup

 刷新后看仪表盘加载出来了多条

#使用systemctl方式启动,因为版本问题,不要使用service filebeat start去启动
[root@es1 ~]# systemctl start filebeat

11. 检查数据

回到Kibana得web页面,在配置得操作文档中点击检查数据,这个会帮你检查是否成功。

12. 创建索引

来到索引管理可以看到我们刚收集到得日志

现在去创建索引

 

这种方式就是通过Filebeat中得input和output直接收集ES日志并输出到ES集群中,并用Filebeat加载了一下Kibana的仪表盘,通过Kibana展示数据。 

八. 部署Kafka

新增三台虚拟机参照如下配置并进行初始化操作

软件版本:jdk-8u211-linux-x64.tar.gz、kafka_2.11-2.0.0.tgz

安装软件主机名IP地址系统版本配置
zookeeper/kafkaKafka1192.168.226.24Rocky_linux9.41核2G
zookeeper/kafkaKafka2192.168.226.25Rocky_linux9.41核2G
zookeeper/kafkaKafka3192.168.226.26Rocky_linux9.41核2G

修改主机名

#对192.168.226.24主机操作
[root@localhost ~]# hostnamectl set-hostname Kafka1#对192.168.226.25主机操作
[root@localhost ~]# hostnamectl set-hostname Kafka2#对192.168.226.26主机操作
[root@localhost ~]# hostnamectl set-hostname Kafka3

关闭防火墙和selinux,进行时间同步,IP固定,初始化脚本可以用上集里的配置。

1. 上传安装jdk8,三台Kafka都安装

[root@Kafka1 ~]# ll
total 244884
-rw-------. 1 root root       815 Jun  6 14:00 anaconda-ks.cfg
-rw-r--r--  1 root root 194990602 Jul  2 20:11 jdk-8u211-linux-x64.tar.gz
-rw-r--r--  1 root root  55751827 Jul  2 11:39 kafka_2.11-2.0.0.tgz
-rw-r--r--. 1 root root      4747 Jun 24 19:46 rocky_linux.sh
[root@Kafka1 ~]# tar -zxvf jdk-8u211-linux-x64.tar.gz -C /usr/local/
[root@Kafka1 ~]# echo '
JAVA_HOME=/usr/local/jdk1.8.0_211
PATH=$JAVA_HOME/bin:$PATH
export JAVA_HOME PATH
' >>/etc/profile
[root@Kafka1 ~]# source /etc/profile
[root@Kafka1 ~]# java -version
java version "1.8.0_211"
Java(TM) SE Runtime Environment (build 1.8.0_211-b12)
Java HotSpot(TM) 64-Bit Server VM (build 25.211-b12, mixed mode)

2. 安装配置ZK,三台Kafka都安装

Kafka运行依赖ZK,Kafka官网提供的tar包中,已经包含了ZK,这里不再额下载ZK程序。

[root@Kafka1 ~]# ll
total 244884
-rw-------. 1 root root       815 Jun  6 14:00 anaconda-ks.cfg
-rw-r--r--  1 root root 194990602 Jul  2 20:11 jdk-8u211-linux-x64.tar.gz
-rw-r--r--  1 root root  55751827 Jul  2 11:39 kafka_2.11-2.0.0.tgz
-rw-r--r--. 1 root root      4747 Jun 24 19:46 rocky_linux.sh

下面这个配置文件中,kafka集群IP:Port .1为id 3处要对应 

[root@Kafka1 ~]# tar -zxvf kafka_2.11-2.0.0.tgz -C /usr/local/
[root@Kafka1 ~]# echo '
dataDir=/opt/data/zookeeper/data 
dataLogDir=/opt/data/zookeeper/logs
clientPort=2181 
tickTime=2000 
initLimit=20 
syncLimit=10 
server.1=192.168.226.24:2888:3888
server.2=192.168.226.25:2888:3888
server.3=192.168.226.26:2888:3888
'> /usr/local/kafka_2.11-2.0.0/config/zookeeper.properties

配置项含义:

dataDir ZK数据存放目录。
dataLogDir  ZK日志存放目录。
clientPort  客户端连接ZK服务的端口。
tickTime        ZK服务器之间或客户端与服务器之间维持心跳的时间间隔。
initLimit       允许follower(相对于Leaderer言的“客户端”)连接并同步到Leader的初始化连接时间,以tickTime为单位。当初始化连接时间超过该值,则表示连接失败。
syncLimit   Leader与Follower之间发送消息时,请求和应答时间长度。如果follower在设置时间内不能与leader通信,那么此follower将会被丢弃。
server.1=192.168.226.24:2888:3888    2888是follower与leader交换信息的端口,3888是当leader挂了时用来执行选举时服务器相互通信的端口。
#创建data、log目录
[root@kafka1 ~]# mkdir -p /opt/data/zookeeper/{data,logs}
#创建myid文件,每个节点的id不一样对192.168.226.24
[root@Kafka1 ~]# echo 1 > /opt/data/zookeeper/data/myid对192.168.226.25
[root@Kafka2 ~]# echo 2 > /opt/data/zookeeper/data/myid对192.168.226.26
[root@Kafka3 ~]# echo 3 > /opt/data/zookeeper/data/myid

 创建log目录

[root@Kafka1 ~]# mkdir -p /opt/data/kafka/logs

3. 配置Kafka,这里三台虚拟机要主机配置中的IP

参考参数解释去修改你对应的broker.id和listeners

[root@Kafka1 ~]# echo '
broker.id=1
listeners=PLAINTEXT://192.168.226.24:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/opt/data/kafka/logs
num.partitions=6
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=2
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=536870912
log.retention.check.interval.ms=300000
zookeeper.connect=192.168.226.24:2181,192.168.226.25:2181,192.168.226.26:2181
zookeeper.connection.timeout.ms=6000
group.initial.rebalance.delay.ms=0
' >/usr/local/kafka_2.11-2.0.0/config/server.properties

配置项含义:

broker.id   每个server需要单独配置broker id,如果不配置系统会自动配置。
listeners       监听地址,格式PLAINTEXT://IP:端口。
num.network.threads 接收和发送网络信息的线程数。
num.io.threads          服务器用于处理请求的线程数,其中可能包括磁盘I/O。
socket.send.buffer.bytes    套接字服务器使用的发送缓冲区(SO_SNDBUF)
socket.receive.buffer.bytes 套接字服务器使用的接收缓冲区(SO_RCVBUF)
socket.request.max.bytes        套接字服务器将接受的请求的最大大小(防止OOM)
log.dirs        日志文件目录。
num.partitions  partition数量。
num.recovery.threads.per.data.dir       在启动时恢复日志、关闭时刷盘日志每个数据目录的线程的数量,默认1。
offsets.topic.replication.factor        偏移量话题的复制因子(设置更高保证可用),为了保证有效的复制,偏移话题的复制因子是可配置的,在偏移话题的第一次请求的时候可用的broker的数量至少为复制因子的大小,否则要么话题创建失败,要么复制因子取可用broker的数量和配置复制因子的最小值。
log.retention.hours 日志文件删除之前保留的时间(单位小时),默认168
log.segment.bytes   单个日志文件的大小,默认1073741824
log.retention.check.interval.ms 检查日志段以查看是否可以根据保留策略删除它们的时间间隔。
zookeeper.connect   ZK主机地址,如果zookeeper是集群则以逗号隔开。
zookeeper.connection.timeout.ms     连接到Zookeeper的超时时间。

4. 启动、验证ZK集群,三台都启动

[root@Kafka1 ~]# cd /usr/local/kafka_2.11-2.0.0/
[root@Kafka1 kafka_2.11-2.0.0]# nohup bin/zookeeper-server-start.sh config/zookeeper.properties &

5. 检查三台ZK状态

在三个节点依次执行:

[root@Kafka1 kafka_2.11-2.0.0]# yum -y install nmap lsof
#查看ZK配置
[root@Kafka1 kafka_2.11-2.0.0]# echo conf | nc 127.0.0.1 2181
clientPort=2181
dataDir=/opt/data/zookeeper/data/version-2
dataLogDir=/opt/data/zookeeper/logs/version-2
tickTime=2000
maxClientCnxns=60
minSessionTimeout=4000
maxSessionTimeout=40000
serverId=1
initLimit=20
syncLimit=10
electionAlg=3
electionPort=3888
quorumPort=2888
peerType=0#查看ZK状态
[root@Kafka1 kafka_2.11-2.0.0]# echo stat |nc 127.0.0.1 2181
Zookeeper version: 3.4.13-2d71af4dbe22557fda74f9a9b4309b15a7487f03, built on 06/29/2018 00:39 GMT
Clients:/127.0.0.1:57044[0](queued=0,recved=1,sent=0)Latency min/avg/max: 0/0/0
Received: 2
Sent: 1
Connections: 1
Outstanding: 0
Zxid: 0x100000000
Mode: follower
Node count: 4#查看端口
[root@Kafka1 kafka_2.11-2.0.0]# lsof -i:2181
COMMAND  PID USER   FD   TYPE DEVICE SIZE/OFF NODE NAME
java    3753 root   95u  IPv6  34970      0t0  TCP *:eforward (LISTEN)

6. 启动Kafka

在三个节点依次执行:

[root@kafka1 ~]# cd /usr/local/kafka_2.11-2.0.0/
[root@kafka1 ~]# nohup bin/kafka-server-start.sh config/server.properties &

7. 验证Kafka

在192.168.226.24上创建topic

[root@Kafka1 kafka_2.11-2.0.0]# bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic testtopic

查询192.168.226.24上的topic

[root@Kafka1 kafka_2.11-2.0.0]# bin/kafka-topics.sh --zookeeper 192.168.226.24:2181 --list

查询192.168.226.25上的topic

[root@Kafka2 kafka_2.11-2.0.0]# bin/kafka-topics.sh --zookeeper 192.168.226.25:2181 --list

查询192.168.226.26上的topic

[root@Kafka3 kafka_2.11-2.0.0]# bin/kafka-topics.sh --zookeeper 192.168.226.26:2181 --list

模拟消息生产和消费

发送消息到192.168.226.24

[root@Kafka1 kafka_2.11-2.0.0]# bin/kafka-console-producer.sh --broker-list 192.168.226.24:9092 --topic testtopic
>hello
>word!
>hi who are you 

从192.168.226.25接受消息

[root@Kafka2 kafka_2.11-2.0.0]# bin/kafka-console-consumer.sh --bootstrap-server  192.168.226.25:9092 --topic testtopic --from-beginning
hello
word!
hi who are you

8.监控 Kafka Manager

Kafka-manager 是 Yahoo 公司开源的集群管理工具。

可以在 Github 上下载安装:GitHub - yahoo/CMAK: CMAK is a tool for managing Apache Kafka clusters

亿级 ELK 日志平台构建实践

如果遇到 Kafka 消费不及时的话,可以通过到具体 cluster 页面上,增加 partition。Kafka 通过 partition 分区来提高并发消费速度

九. 集群测试

1. 在192.168.226.27主机操作

[root@filebeat ~]# yum install -y nginx
[root@filebeat ~]# vim /etc/nginx/nginx.conf
#在http模块里替换原来的日志格式log_format main        '{"user_ip":"$http_x_real_ip","lan_ip":"$remote_addr","log_time":"$time_iso8601","user_req":"$request","http_code":"$status","body_bytes_sents":"$body_bytes_sent","req_time":"$request_time","user_ua":"$http_user_agent"}';

 

启动并设置开机自启 

[root@filebeat ~]# systemctl enable --now nginx

浏览器访问该主机nginx的网页

2. 配置 192.168.226.27主机的filebeat

[root@filebeat ~]# vim /etc/filebeat/filebeat.yml
filebeat.inputs:
- type: logenabled: truepaths:- /var/log/nginx/access.logjson.keys_under_root: truejson.add_error_key: truejson.message_key: logoutput.kafka:hosts: ["192.168.226.24:9092","192.168.226.25:9092","192.168.226.26:9092"]topic: 'nginx-access-log'

 

  

3. 配置logstash配置文件,即192.168.226.23主机 

[root@nginx ~]# vim /usr/local/logstash-7.13.2/conf/stdin.conf
input {kafka {type => "audit_log"  codec => "json"topics => ["nginx-access-log"]auto_offset_reset => "earliest"bootstrap_servers => ["192.168.226.24:9092,192.168.226.25:9092,192.168.226.26:9092"]#decorate_events => true#enable_auto_commit => true}
}filter {if [message] =~ "%{COMBINEDAPACHELOG}" {  # 可选条件,确保只有符合格式的日志被处理grok {match => { "message" => "%{COMBINEDAPACHELOG} %{QS:x_forwarded_for}" }}date {match => [ "timestamp", "dd/MMM/YYYY:HH:mm:ss Z" ]}geoip {source => "lan_ip"}}
}

 此处的IP是Kafka集群IP

[root@nginx ~]# vim /usr/local/logstash-7.13.2/conf/stdout.conf
output {if [type] == "audit_log" {  # 如果Kafka消息中没有type字段,这里可能永远不会为真  stdout {  codec => rubydebug}elasticsearch {hosts => ["192.168.226.20", "192.168.226.21", "192.168.226.22"]index => 'access-log-%{+YYYY.MM.dd}'  # 修改索引名称为更合适的名称}}
}

此处的IP是ES集群IP

4. 重启192.168.226.27主机上的filebeat

[root@filebeat ~]# systemctl restart filebeat

5. 查看Kafka

对192.168.226.24操作

列出 Kafka 集群中所有可用的主题的

[root@Kafka1 kafka_2.11-2.0.0]# bin/kafka-topics.sh --zookeeper 192.168.226.24:2181 --list

查看 nginx-access-log 的topic的消息 

[root@Kafka1 kafka_2.11-2.0.0]# bin/kafka-console-consumer.sh --bootstrap-server 192.168.226.24:9092 --topic nginx-access-log --from-beginning

 

6. 启动logstash

对192.168.226.23主机操作

[root@nginx conf]# cd ..
[root@nginx logstash-7.13.2]# ./bin/logstash -f conf/

使用其他主机进行如下命令进行请求访问

然后看logstash的弹出信息。

[root@es2 logs]# curl http://192.168.226.27

7. 访问Kibana的web页面

即访问192.168.226.23

注:如遇时间不对,即集群中主机时间同步和时区未同步设定好。建议执行下述命令同步

sudo dnf install chrony
sudo systemctl enable --now chronyd
sudo systemctl restart chronyd 

到此就完成了整个架构部署! 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/368340.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

使用 draw.io 画图

尽管我非常喜欢 wps 和 office 的 ppt 画图,但因为它们对数学公式的糟糕支持,我不得不另外寻找一个画图工具。当然我也同样很喜欢 visio ,但同样的,它对数学公式的支持糟糕,另外,最为重要的是,v…

java设计模式(十二)享元模式(Flyweight Pattern)

1、模式介绍: 享元模式是一种结构型设计模式,旨在通过共享对象来有效支持大量细粒度的对象。它通过将对象的状态分为内部状态(可共享)和外部状态(不可共享)来减少内存消耗和提高性能。内部状态存储在享元对…

​Chrome插件:React Developer Tools为React开发调试而生

React Developer Tools 是什么? 它是允许在Chrome和Firefox开发者工具中检查React组件层次结构的扩展插件。 插件源码下载 源码下载地址:GitHub - facebook/react-devtools at v3 下载完成以后执行红框中的代码,下载react-devtools 源码,源码如下图所示: 插件打包 当前n…

【软件测试】如何搭建appium工具环境?

🍅 视频学习:文末有免费的配套视频可观看 🍅 点击文末小卡片,免费获取软件测试全套资料,资料在手,涨薪更快 1、安装Java Development Kit(JDK) 前往Oracle官网下载JDK。 在https:/…

用Python制作动态钟表:实时显示时间的动画

文章目录 引言准备工作前置条件 代码实现与解析导入必要的库初始化Pygame绘制钟表函数主循环 完整代码 引言 动态钟表是一种直观且实用的UI元素,能够实时显示当前时间。在这篇博客中,我们将使用Python创建一个动态钟表,通过利用Pygame库来实…

高校搭建AIGC新媒体实验室,创新新闻教育教学模式

高校作为人才培养的重要阵地,必须紧跟时代步伐,不断创新教育教学模式,提升跨界融合育人水平,通过AIGC新媒体实验室探索创新人才培养模式。AIGC新媒体实验室不仅能够高效赋能高校宣传媒体矩阵,也可以助力教学实践与AIGC…

【设计模式】观察者模式(定义 | 特点 | Demo入门讲解)

文章目录 定义结构Demo | 代码Subject目标类Observer抽象观察者观察者1 | CPU监听器观察者2 | 内存监听器客户端 | Client 优点适合场景 定义 所谓观察者模式就是你是被观察的那个对象,你爸爸妈妈就是观察者,一天24h盯着你,一旦你不听话&…

使用requests爬取拉勾网python职位数据

爬虫目的 本文是想通过爬取拉勾网Python相关岗位数据,简单梳理Requests和xpath的使用方法。 代码部分并没有做封装,数据请求也比较简单,所以该项目只是为了熟悉requests爬虫的基本原理,无法用于稳定的爬虫项目。 爬虫工具 这次…

目标和问题:从回溯到动态规划的旅程

目录 引言 题目描述 示例 初步思路:回溯法 回溯法实现 分析 转变思路:动态规划 问题转换 状态定义 状态转移方程 二维动态规划实现 压缩到一维动态规划 一维动态规划实现 详细讲解:从回溯到动态规划的旅程 1. 从回溯到动态规划…

【java计算机毕设】美容院管理系统 项目源代码MySQL springboot vue html maven+文档 前后端可分离也可不分离

目录 1项目功能 2项目介绍 3项目地址 1项目功能 【java计算机毕设】美容院管理系统 项目源代码MySQL springboot vue html maven文档 前后端可分离也可不分离 2项目介绍 系统功能: 美容院管理系统包括管理员、用户俩种角色。 管理员功能包括个人中心模块用于修改…

YOLO-letter box

最细致讲解yolov8模型推理完整代码--(前处理,后处理) - 博客-中国极客 (chinageek.org) 直接用resize,图片会变形,宽高比会不对 letterbox函数就是把图片弄到想要的大小,保持宽高比,然后少掉的部…

数字媒体技术基础之:DNG 文件

DNG(Digital Negative)文件是一种用于存储原始图像数据的文件格式,由 Adobe Systems 于2004年开发并推广。DNG 是一种开放的、非专利的原始图像格式,旨在为不同相机制造商提供一个统一的存储格式。DNG 文件保存了原始的、未处理的…

【Linux】线程id与互斥(线程三)

上一期我们进行了线程控制的了解与相关操作,但是仍旧有一些问题没有解决 本章第一阶段就是解决tid的问题,第二阶段是进行模拟一个简易线程库(为了加深对于C库封装linux原生线程的理解),第三阶段就是互斥。 目录 线程id…

Python-数据分析组合可视化实例图【附完整源码】

数据分析组合可视化实例图 开篇:应女朋友的要求,于是写下了这篇详细的数据可视化代码及完整注释 一:柱状图、折线图横向组合网格布局 本段代码使用了pyecharts库来创建一个包含多个图表(柱状图、折线图)和网格布局的…

鸿蒙应用更新跳转到应用市场

鸿蒙没有应用下载安装,只支持跳转到应用市场更新 gotoMarket(){try {const request: Want {parameters: {// 此处填入要加载的应用包名,例如: bundleName: "com.huawei.hmsapp.appgallery"bundleName: com.huawei.hmos.maps.app}}…

【NOI-题解】1372. 活动选择1456. 淘淘捡西瓜1485. 接水问题

文章目录 一、前言二、问题问题:1372. 活动选择问题:1456. 淘淘捡西瓜问题:1485. 接水问题 三、感谢 一、前言 本章节主要对贪心问题进行讲解,包括《1372. 活动选择》《1456. 淘淘捡西瓜》《1485. 接水问题》题目。 二、问题 问…

Debian linux安装最新版Cmake

直接sudo apt install camke不是最新版本 卸载cmake sudo apt autoremove cmake下载cmake cmake官网 最上面的是候选版本,往下滑是最新稳定版 解压(改成自己的包) tar -zxvf cmake-3.30.0-rc4.tar.gz进入解压后的文件夹 lscd cmake-3.3…

【项目实践】贪吃蛇

一、游戏效果展示二、博客目标三、使用到的知识四、Win32 API 介绍 4.1 WIn32 API4.2 控制台程序4.3 控制屏幕上的坐标COORD4.4 GetStdHandle4.5 GetConsoleCursorInfo 4.5.1 CONSOLE_CURSOR_INFO 4.6 SetConsoleCursorInfo4.7 SetConsoleCursorPosition4.8 GetAsyncKeyState 五…

Python 项目依赖离线管理 pip + requirements.txt

背景 项目研发环境不支持联网,无法通过常规 pip install 来安装依赖,此时需要在联网设备下载依赖,然后拷贝到离线设备进行本地安装。 两台设备的操作系统、Python 版本尽可能一致。 离线安装依赖 # 在联网设备上安装项目所需的依赖 # -d …

Unity射击游戏开发教程:(29)躲避敌人的子弹射击

在这篇文章中,我将介绍如何创建一个可以使玩家火力无效的敌人。创建的行为如下...... 当玩家向敌人开火时,敌人会向左或向右移动。向左或向右的移动是随机选择的,并在一段时间后停止敌人的移动。如果敌人移出屏幕,它就会绕到另一边。将一个精灵拖到画布上,将其缩小以匹配游…