Nginx从安装到高可用实用教程!

一、Nginx安装

1、去官网http://nginx.org/下载对应的nginx包,推荐使用稳定版本
2、上传nginx到linux系统
3、安装依赖环境

(1)安装gcc环境

yum install gcc-c++

(2)安装PCRE库,用于解析正则表达式

yum install -y pcre pcre-devel

(3)zlib压缩和解压缩依赖

yum install -y zlib zlib-devel

(4)SSL 安全的加密的套接字协议层,用于HTTP安全传输,也就是https

yum install -y openssl openssl-devel
4、解压,需要注意,解压后得到的是源码,源码需要编译后才能安装
tar -zxvf nginx-1.16.1.tar.gz
5、编译之前,先创建nginx临时目录,如果不创建,在启动nginx的过程中会报错
mkdir /var/temp/nginx -p
6、在nginx目录,输入如下命令进行配置,目的是为了创建makefile文件
./configure \   
--prefix=/usr/local/nginx \    
--pid-path=/var/run/nginx/nginx.pid \    
--lock-path=/var/lock/nginx.lock \    
--error-log-path=/var/log/nginx/error.log \    
--http-log-path=/var/log/nginx/access.log \    
--with-http_gzip_static_module \    
--http-client-body-temp-path=/var/temp/nginx/client \    
--http-proxy-temp-path=/var/temp/nginx/proxy \    
--http-fastcgi-temp-path=/var/temp/nginx/fastcgi \    
--http-uwsgi-temp-path=/var/temp/nginx/uwsgi \    
--http-scgi-temp-path=/var/temp/nginx/scgi

注:代表在命令行中换行,用于提高可读性配置命令:

7、make编译&安装
make
make install
8、进入sbin目录启动nginx
启动:nginx
停止:./nginx -s stop
重新加载:./nginx -s reload

二、配置反向代理

1、配置upstream

upstream [proxyName] {server 192.168.1.173:8080;server 192.168.1.174:8080;server 192.168.1.175:8080;
}

2、配置server

server {listem  80;server_name www.tomcats.com;location / {proxy_pass http://tomcats;}
}

三、配置负载均衡

nginx默认采用轮训的方式进行负载均衡

1、使用加权轮询

upstream [proxyName] {server 192.168.1.173:8080 weight=1;server 192.168.1.174:8080 weight=5;server 192.168.1.175:8080 weight=2;
}

2、hash负载均衡

upstream [proxyName] {ip_hashserver 192.168.1.173:8080;server 192.168.1.174:8080;server 192.168.1.175:8080;
}

hash算法实际上只会计算 192.168.1这段做哈希

使用ip_hash的注意点:

  • 不能把后台服务器直接移除,只能标记down.

3、url hash负载均衡

upstream [proxyName] {hash $request_url;server 192.168.1.173:8080;server 192.168.1.174:8080;server 192.168.1.175:8080;
}

4、最小连接负载均衡

upstream [proxyName] {least_conn;server 192.168.1.173:8080;server 192.168.1.174:8080;server 192.168.1.175:8080;
}

四、upstream指令参数

  • max_conns:限制最大同时连接数 1.11.5之前只能用于商业版

  • slow_start:单位秒,权重在指定时间内从1上升到指定值,不适用与hash负载均衡、随机负载均衡 如果在 upstream 中只有一台 server,则该参数失效(商业版才有)

  • down:禁止访问

  • backup:备用机 只有在其他服务器无法访问的时候才能访问到 不适用与hash负载均衡、随机负载均衡

  • max_fails:表示失败几次,则标记server已宕机,剔出上游服务 默认值1

  • fail_timeout:表示失败的重试时间 默认值10

1、keepalived

upstream [proxyName] {server 192.168.1.173:8080 weight=1;server 192.168.1.174:8080 weight=5;server 192.168.1.175:8080 weight=2;keepalive 32; #保持的连接数
}server {listem  80;server_name www.tomcats.com;location / {proxy_pass http://tomcats;proxy_http_version 1.1; #连接的协议版本proxy_set_header Connection ""; 清空连接请求头}
}

2、控制浏览器缓存

server {listem  80;server_name www.tomcats.com;location / {proxy_pass http://tomcats;expires 10s;  #浏览器缓存10秒钟#expires @22h30m  #在晚上10点30的时候过期#expires -1h  #缓存在一小时前时效#expires epoch  #不设置缓存#expires off  #缓存关闭,浏览器自己控制缓存#expires max  #最大过期时间}
}

3、反向代理缓存

upstream [proxyName] {server 192.168.1.173:8080 weight=1;server 192.168.1.174:8080 weight=5;server 192.168.1.175:8080 weight=2;
}#proxy_cache_path 设置缓存保存的目录的位置
#keys_zone设置共享内以及占用的空间大小
#mas_size 设置缓存最大空间
#inactive 缓存过期时间,错过此时间自动清理
#use_temp_path 关闭零时目录
proxy_cache_path /usr/local/nginx/upsteam_cache keys_zone=mycache:5m max_size=1g inactive=8h use_temp_path=off;server {listem  80;server_name www.tomcats.com;#开启并使用缓存proxy_cache mycache;#针对200和304响应码的缓存过期时间proxy_cache_valid 200 304 8h;   location / {proxy_pass http://tomcats;}
}

五、配置ssl证书提供https访问

1. 安装SSL模块

要在nginx中配置https,就必须安装ssl模块,也就是: http_ssl_module

进入到nginx的解压目录:/home/software/nginx-1.16.1

新增ssl模块(原来的那些模块需要保留)

./configure \
--prefix=/usr/local/nginx \
--pid-path=/var/run/nginx/nginx.pid \
--lock-path=/var/lock/nginx.lock \
--error-log-path=/var/log/nginx/error.log \
--http-log-path=/var/log/nginx/access.log \
--with-http_gzip_static_module \
--http-client-body-temp-path=/var/temp/nginx/client \
--http-proxy-temp-path=/var/temp/nginx/proxy \
--http-fastcgi-temp-path=/var/temp/nginx/fastcgi \
--http-uwsgi-temp-path=/var/temp/nginx/uwsgi \
--http-scgi-temp-path=/var/temp/nginx/scgi  \
--with-http_ssl_module

编译和安装

make
make install
2、配置HTTPS

把ssl证书 *.crt 和 私钥 *.key 拷贝到/usr/local/nginx/conf目录中。

新增 server 监听 443 端口:

server {listen       443;server_name  www.imoocdsp.com;# 开启sslssl     on;# 配置ssl证书ssl_certificate      1_www.imoocdsp.com_bundle.crt;# 配置证书秘钥ssl_certificate_key  2_www.imoocdsp.com.key;# ssl会话cachessl_session_cache    shared:SSL:1m;# ssl会话超时时间ssl_session_timeout  5m;# 配置加密套件,写法遵循 openssl 标准ssl_protocols TLSv1 TLSv1.1 TLSv1.2;ssl_ciphers ECDHE-RSA-AES128-GCM-SHA256:HIGH:!aNULL:!MD5:!RC4:!DHE;ssl_prefer_server_ciphers on;location / {proxy_pass http://tomcats/;index  index.html index.htm;}
}

六、配置ha nginx

1、安装keepalived

(1)下载

https://www.keepalived.org/download.html

(2)解压

tar -zxvf keepalived-2.0.18.tar.gz

(3)使用configure命令配置安装目录与核心配置文件所在位置:

./configure --prefix=/usr/local/keepalived --sysconf=/etc
  • prefix:keepalived安装的位置sysconf:keepalived核心配置文件所在位置,固定位置,改成其他位置则keepalived启动不了,/var/log/messages中会报错

  • sysconf:keepalived核心配置文件所在位置,固定位置,改成其他位置则keepalived启动不了,/var/log/messages中会报错

配置过程中可能会出现警告信息,如下所示:

*** WARNING - this build will not support IPVS with IPv6. Please install libnl/libnl-3 dev libraries to support IPv6 with IPVS.# 安装libnl/libnl-3依赖
yum -y install libnl libnl-devel  

(4)安装keepalived

make && make install

(5)配置文件 在/etc/keepalived/keepalived.conf

(6)忘记安装配置的目录,则通过如下命令找到:

whereis keepalived

(7)启动keepalived

进入sbin目录

./keepalived
2、配置keepalived 主机

(1)通过命令 vim keepalived.conf 打开配置文件

global_defs { # 路由id:当前安装keepalived的节点主机标识符,保证全局唯一 router_id keep_171 
} vrrp_instance VI_1 { # 表示状态是MASTER主机还是备用机BACKUP state MASTER # 该实例绑定的网卡 interface ens33 # 保证主备节点一致即可 virtual_router_id 51 # 权重,master权重一般高于backup,如果有多个,那就是选举,谁的权重高,谁就当选 priority 100 # 主备之间同步检查时间间隔,单位秒 advert_int 2 # 认证权限密码,防止非法节点进入 authentication { auth_type PASS auth_pass 1111 } # 虚拟出来的ip,可以有多个(vip) virtual_ipaddress { 192.168.1.161 }
}

附:查看网卡信息命令

ip addr

(2)启动keepalived

(3)查看进程

ps -ef|grep keepalived

(4)查看vip(虚拟ip)

在网卡ens33下,多了一个192.168.1.161,这个就是虚拟ip

3、把keepalived注册为系统服务

(1)拷贝配置文件

  • 将keepalived目录下etc/init.d/keepalived拷贝到/etc/init.d/

  • 将keepalived目录下etc/sysconfig/keepalived拷贝到/etc/sysconfig/

(2)刷新systemctl

systemctl daemon-reload

(3)启动、停止、重启keepalived

#启动
systemctl start keepalived.service
#停止
systemctl stop keepalived.service
#重启
systemctl restart keepalived.service
4、实现双机主备高可用

(1)修改备机配置

global_defs { router_id keep_172 
} 
vrrp_instance VI_1 { # 备用机设置为BACKUP state BACKUP interface ens33 virtual_router_id 51 # 权重低于MASTER priority 80 advert_int 2 authentication { auth_type PASS auth_pass 1111 }virtual_ipaddress {# 注意:主备两台的vip都是一样的,绑定到同一个vip 192.168.1.161 } 
}

(2) 启动 Keepalived

(3) 访问vip即可访问主机,当主机失效时访问vip就会访问到备机

5、keepalived配置nginx自动重启

(1)编写脚本

/etc/keepalived/下创建脚本check_nginx_alive_or_not

#!/bin/bash A=`ps -C nginx --no-header |wc -l` 
# 判断nginx是否宕机,如果宕机了,尝试重启 
if [ $A -eq 0 ];then /usr/local/nginx/sbin/nginx # 等待一小会再次检查nginx,如果没有启动成功,则停止keepalived,使其启动备用机 sleep 3 if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then killall keepalived fi 
fi

(2)添加运行权限

chmod +x /etc/keepalived/check_nginx_alive_or_not.sh

(3)配置keepalived监听nginx脚本

vrrp_script check_nginx_alive { script "/etc/keepalived/check_nginx_alive_or_not.sh" interval 2 # 每隔两秒运行上一行脚本 weight 10 # 如果脚本运行失败,则升级权重+10 
}

(4)在vrrp_instance中新增监控的脚本

track_script { check_nginx_alive # 追踪 nginx 脚本
}

(5)重启Keepalived使得配置文件生效

systemctl restart keepalived
6、keepalived双主热备

(1)配置DNS轮询

在同一个域名下配置两个ip,自行百度

(2)配置第一台主机

global_defs {router_id keep_171 
} 
vrrp_instance VI_1 { state MASTER interface ens33 virtual_router_id 51 priority 100 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.161 } 
} vrrp_instance VI_2  {state BACKUP interface ens33 virtual_router_id 52 priority 80 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.162 }
}

(3)配置第二台主机

global_defs {router_id keep_172 
} 
vrrp_instance VI_1 { state BACKUP interface ens33 virtual_router_id 51 priority 80 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.161}
} vrrp_instance VI_2 {state MASTER interface ens33 virtual_router_id 52 priority 100 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.162 }
}

(4)重启两台Keepalived

systemctl restart keepalived

七、LVS(Linux Virtual Server)实现高可用负载均衡

1、为什么要使用LVS+Nginx
  • lvs基于四层负载均衡,工作效率较Nginx的七层负载更高,使用LVS搭建Nginx集群,可以提高性能

  • 四层负载均衡无法对信息处理,只能通过ip+端口的形式转发,所以需要七成负载进行数据的处理

  • Nginx接收请求来回,LVS可以只接受不响应

2、LVS的三种模式

(1)NAT模式

  • 客户端将请求发往LVS,LVS会选择一台服务器响应请求,服务器将结果返回给LVS,LVS再返回给客户端。

  • 在NAT模式中,服务器的网关必须指向LVS,否则报文无法送达客户端

  • NAT 技术将请求的报文和响应的报文都需要通过LVS进行地址改写,因此网站访问量比较大的时候负载均衡调度器有比较大的瓶颈,一般要求最多之能 10-20 台节点

  • NAT 模式支持对 IP 地址和端口进行转换。即用户请求的端口和真实服务器的端口可以不一致

(2)TUN模式

  • 客户端将请求发往LVS,LVS会选择一台服务器响应请求,在客户端与服务器之间建立隧道,返回结果的时候直接由服务器返回响应,不在经过LVS。

  • TUN模式必须所有的服务器上都绑定VIP的IP地址,所有的服务器都必须有网卡。

  • TUN模式走隧道运维难度大,并且会直接暴露服务器地址

  • 服务器将应答包直接发给用户。所以,减少了负载均衡器的大量数据流动,负载均衡器不再是系统的瓶颈,就能处理很巨大的请求量,这种方式,一台负载均衡器能够为很多服务器进行分发。而且跑在公网上就能进行不同地域的分发

(3)DR模式

  • 客户端将请求发往LVS,LVS会选择一台服务器响应请求,返回结果的时候通过统一的路由进行返回,不在经过LVS。

  • 和TUN模式一样,LVS只是分发请求,应答包通过单独的路由返回给客户端,与TUN相比这种方式不需要隧道结构,可以兼容大多数的操作系统,同时统一路由可以隐藏真实的物理服务器。DR模式效率更高,但配置更复杂.

  • 所有服务器节点和LVS只能在一个局域网里面。

3、搭建LVS-DR模式

先关闭掉服务器上网络配置管理器,避免网络接口冲突

systemctl stop NetworkManager
systemctl disable NetworkManager

(1)创建子接口(创建LVS的虚拟ip)

进入网卡配置目录/etc/sysconfig/network-scripts/,找到网卡配置文件,这里以ifcfg-ens33为例,拷贝并创建子接口

cp ifcfg-ens33 ifcfg-ens33:1

修改子接口配置如下

  • 配置中的 192.168.1.150 就是vip,是提供给外网用户访问的ip地址

DEVICE="ens33:1"
ONBOOT="yes"
IPADDR=192.168.1.150
NETMASK=255.255.255.0
BOOTPROTO=static
  • 重启网络服务

service network restart

重启成功后,ip addr 查看一下,你会发现多了一个ip,也就是虚拟ip(vip)

注意:阿里云不支持配置网卡,需要购买相应的负载均衡服务,腾讯云支持配置网卡,但需要购买网卡支持,一个网卡支持10个虚拟ip配置

(2)安装ipvsadm

如今的centos都集成了LVS,所以ipvs是自带的,我们只需要安装ipvsadm即可(ipvsadm是管理集群的工具,通过ipvs可以管理集群,查看集群等操作)

yum install ipvsadm

(3)配置服务器(RS)的虚拟ip

进入网卡配置目录/etc/sysconfig/network-scripts/,找到ifcfg-lo,拷贝并创建子接口

cp ifcfg-lo ifcfg-lo:1

修改子接口配置如下

DEVICE="lo:1"
IPADDR=192.168.1.150
NETMASK=255.255.255.255
NETWORK=127.0.0.0
BROADCAST=127.255.255.255
ONBOOT="yes"
NAME=loopback

重启网络服务成功后,ip addr 查看一下,你会发现多了一个ip,也就是虚拟ip(vip)

(4)为服务器(RS)配置arp

ARP响应级别与通告行为参数说明

arp-ignore:ARP响应级别(处理请求)0:只要本机配置了ip,就能响应请求1:请求的目标地址到达对应的网络接口,才会响应请求
arp-announce:ARP通告行为(返回响应)0:本机上任何网络接口都向外通告,所有的网卡都能接受到通告1:尽可能避免本网卡与不匹配的目标进行通告2:只在本网卡通告

打开sysctl.conf:

vim /etc/sysctl.conf

配置所有网卡、默认网卡以及虚拟网卡的arp响应级别和通告行为,分别对应:all,default,lo

# configration for lvs 
net.ipv4.conf.all.arp_ignore = 1 
net.ipv4.conf.default.arp_ignore = 1 
net.ipv4.conf.lo.arp_ignore = 1 net.ipv4.conf.all.arp_announce = 2 
net.ipv4.conf.default.arp_announce = 2 
net.ipv4.conf.lo.arp_announce = 2

刷新配置文件

sysctl -p

增加一个网关,用于接收数据报文,当有请求到本机后,会交给lo去处理

route add -host 192.168.1.150 dev lo:1

将网关添加至开机启动

echo "route add -host 192.168.1.150 dev lo:1" >> /etc/rc.local

(4)使用ipvsadm配置集群规则

创建LVS节点,用户访问的集群调度者

ipvsadm -A -t 192.168.1.150:80 -s rr -p 5
  • -A:添加集群

  • -t:tcp协议ip地址:设定集群的访问

  • ip:也就是LVS的虚拟ip

  • -s:设置负载均衡的算法,

  • rr:表示轮询

  • -p:设置连接持久化的时间,在指定时间内同一个用户的请求会访问到同一个服务器中

创建多台RS真实服务器

ipvsadm -a -t 192.168.1.150:80 -r 192.168.1.171:80 -g 
ipvsadm -a -t 192.168.1.150:80 -r 192.168.1.172:80 -g
  • -a:添加真实服务器

  • -t:tcp协议

  • -r:真实服务器的ip地址

  • -g:设定DR模式

保存到规则库,否则重启失效

ipvsadm -S

检查集群

#查看集群列表
ipvsadm -Ln
#查看集群状态
ipvsadm -Ln --stats

一些其他命令

 # 重启ipvsadm,重启后需要重新配置 service ipvsadm restart # 查看持久化连接 ipvsadm -Ln --persistent-conn # 查看连接请求过期时间以及请求源ip和目标ip ipvsadm -Lnc # 设置tcp tcpfin udp 的过期时间(一般保持默认) ipvsadm --set 1 1 1 # 查看过期时间 ipvsadm -Ln --timeout

(5)访问虚拟ip,完成LVS搭建

附:LVS的负载均衡算法

(1)静态算法

静态:根据LVS本身自由的固定的算法分发用户请求。

  • 轮询(Round Robin 简写’rr’):轮询算法假设所有的服务器处理请求的能力都一样的,调度器会把所有的请求平均分配给每个真实服务器。(同Nginx的轮询)

  • 加权轮询(Weight Round Robin 简写’wrr’):安装权重比例分配用户请求。权重越高,被分配到处理的请求越多。(同Nginx的权重)

  • 源地址散列(Source Hash 简写’sh’):同一个用户ip的请求,会由同一个RS来处理。(同Nginx的ip_hash)

  • 目标地址散列(Destination Hash 简写’dh’):根据url的不同,请求到不同的RS。(同Nginx的url_hash)

(2)动态算法

动态:会根据流量的不同,或者服务器的压力不同来分配用户请求,这是动态计算的。

  • 最小连接数(Least Connections 简写’lc’):把新的连接请求分配到当前连接数最小的服务器。

  • 加权最少连接数(Weight Least Connections 简写’wlc’):服务器的处理性能用数值来代表,权重越大处理的请求越多。Real Server 有可能会存在性能上的差异,wlc动态获取不同服务器的负载状况,把请求分发到性能好并且比较空闲的服务器。

  • 最短期望延迟(Shortest Expected Delay 简写’sed’):特殊的wlc算法。举例阐述,假设有ABC三台服务器,权重分别为1、2、3 。如果使用wlc算法的话,当一个新请求进来,它可能会分给ABC中的任意一个。使用sed算法后会进行如下运算:

    • A:(1+1)/1=2

    • B:(1+2)/2=3/2

    • C:(1+3)/3=4/3

最终结果,会把这个请求交给得出运算结果最小的服务器。最少队列调度(Never Queue 简写’nq’):永不使用队列。如果有Real Server的连接数等于0,则直接把这个请求分配过去,不需要在排队等待运算了(sed运算)。

八、搭建Keepalived+Lvs+Nginx高可用集群负载均衡

如果原先服务器上配置了LVS+nginx需要清空ipvsadm中的配置

ipvsadm -C

如果配置了Keepalived+Nginx双主集群也需要去除掉Keepalived中原先的配置,按照的后文进行配置

(1)使用keepalived配置Master LVS

在LVS的机器上安装keepalived,安装过程参考上文

(1)修改keepalived的配置

global_defs {router_id keep_151 
} 
vrrp_instance VI_1 { state MASTER interface ens33 virtual_router_id 41 priority 100 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.150}
} #配置集群访问的ip+端口,端口和nginx保持一致
virtual_server 192.168.1.150 80{#健康检查的时间,单位:秒delay_loop 6#配置负载均衡的算法,默认的轮询lb_algo rr#设置LVS的模式 NAT|TUN|DRlb-kind DR#设置会话持久化的时间persistence_timeout 5#协议protocol TCP#配置负载均衡的真实服务器,也就是nginx节点的具体的ip地址real_server 192.168.1.171 80{#轮询权重配比weight 1#设置健康检查TCP_CHECK {#检查80端口connect_port 80#超时时间connect_timeout 2#重试次数nb_get_retry 2#重试间隔时间delay_before_retry 3}}real_server 192.168.1.171 80{weight 1TCP_CHECK {connect_port 80connect_timeout 2nb_get_retry 2delay_before_retry 3}}
}

(2)启动/重启keepalived

systemctl restart keepalived
(2)使用keepalived配置Backup LVS

配置在备用机上

global_defs {router_id keep_152 
} 
vrrp_instance VI_1 { state  BACKUPinterface ens33 virtual_router_id 41 priority 50 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.150}
} #配置集群访问的ip+端口,端口和nginx保持一致
virtual_server 192.168.1.150 80{#健康检查的时间,单位:秒delay_loop 6#配置负载均衡的算法,默认的轮询lb_algo rr#设置LVS的模式 NAT|TUN|DRlb-kind DR#设置会话持久化的时间persistence_timeout 5#协议protocol TCP#配置负载均衡的真实服务器,也就是nginx节点的具体的ip地址real_server 192.168.1.171 80{#轮询权重配比weight 1#设置健康检查TCP_CHECK {#检查80端口connect_port 80#超时时间connect_timeout 2#重试次数nb_get_retry 2#重试间隔时间delay_before_retry 3}}real_server 192.168.1.171 80{weight 1TCP_CHECK {connect_port 80connect_timeout 2nb_get_retry 2delay_before_retry 3}}
}
 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/296352.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Linux项目自动化构建工具 --- make/Makefile

文章目录 make/Makefile文件1 背景2 理解2.1 创建执行代码2.2 创建makefile文件2.3 运行make指令2.3.1 依赖关系2.3.2 依赖方法2.3.3 原理 2.4 项目清理 make/Makefile文件 1 背景 会不会写makefile,从一个侧面说明了一个人是否具备完成大型工程的能力一个工程中的…

鸿蒙OS开发实例:【应用事件打点】

简介 传统的日志系统里汇聚了整个设备上所有程序运行的过程流水日志,难以识别其中的关键信息。因此,应用开发者需要一种数据打点机制,用来评估如访问数、日活、用户操作习惯以及影响用户使用的关键因素等关键信息。 HiAppEvent是在系统层面…

分布式链路追踪与云原生可观测性

分布式链路追踪系统历史 Dapper, a Large-Scale Distributed Systems Tracing Infrastructure - Google Dapper,大规模分布式系统的跟踪系统大规模分布式系统的跟踪系统:Dapper设计给我们的启示 阿里巴巴鹰眼技术解密 - 周小帆京东云分布式链路追踪在金…

【机器学习】“强化机器学习模型:Bagging与Boosting详解“

1. 引言 在当今数据驱动的世界里,机器学习技术已成为解决复杂问题和提升决策制定效率的关键工具。随着数据的增长和计算能力的提升,传统的单一模型方法已逐渐无法满足高精度和泛化能力的双重要求。集成学习,作为一种结合多个学习算法以获得比…

Spring Boot中前端通过请求接口下载后端存放的Excel模板

导出工具类 package com.yutu.garden.utils;import com.baomidou.mybatisplus.core.toolkit.ObjectUtils; import org.apache.commons.io.IOUtils; import org.apache.poi.hssf.util.HSSFColor; import org.apache.poi.xssf.usermodel.XSSFWorkbook; import org.slf4j.Logger;…

vue项目引入微信sdk: npm install weixin-js-sdk --save报错

网上查到要用淘宝的镜像 同事告知旧 域名:https://registry.npm.taobao.org/已经不能再使用 使用 npm config set registry http://registry.npmmirror.com

[力扣]根据前中序构造二叉树--详细解析

根据前中序遍历顺序构建一个二叉树 力扣练习链接 过程 总体框架 设preorder的左边界为pleft,右边界为pright[注意这里是闭区间能取到]同时设inorder的左边界为ileft,有边界为iright[同样也是可以取到的索引区间]我们生成每一个区间的树的头结点,然后向上返回,对于他的父亲结点…

基于ssm的轻型卡车零部件销售平台(java项目+文档+源码)

风定落花生,歌声逐流水,大家好我是风歌,混迹在java圈的辛苦码农。今天要和大家聊的是一款基于ssm的轻型卡车零部件销售平台。项目源码以及部署相关请联系风歌,文末附上联系信息 。 项目简介: 轻型卡车零部件销售平台…

Unity类银河恶魔城学习记录12-2 p124 Character Stats UI源代码

Alex教程每一P的教程原代码加上我自己的理解初步理解写的注释,可供学习Alex教程的人参考 此代码仅为较上一P有所改变的代码 【Unity教程】从0编程制作类银河恶魔城游戏_哔哩哔哩_bilibili UI_Statslot.cs using System.Collections; using System.Collections.Gen…

Hadoop和zookeeper集群相关执行脚本(未完,持续更新中~)

1、Hadoop集群查看状态 搭建Hadoop数据集群时,按以下路径操作即可生成脚本 [test_1analysis01 bin]$ pwd /home/test_1/hadoop/bin [test_01analysis01 bin]$ vim jpsall #!/bin/bash for host in analysis01 analysis02 analysis03 do echo $host s…

Windows下Docker搭建Flink集群

编写docker-compose.yml 参照:https://github.com/docker-flink/examples/blob/master/docker-compose.yml version: "2.1" services:jobmanager:image: flink:1.14.4-scala_2.11expose:- "6123"ports:- "18081:8081"command: jobma…

防止推特Twitter账号被冻结,应该选什么代理类型IP?

在处理多个 Twitter 帐号时,选择合适的代理IP对于避免大规模帐户暂停至关重要。现在,问题出现了:哪种类型的代理是满足您需求的最佳选择?下面文章将为你具体讲解推特账号冻结原因以及重点介绍如何选择代理IP。 一、推特账号被冻结…

vue 数据埋点

最近菜鸟做项目,需要做简单的数据埋点,不是企业级的,反正看渡一的视频,企业级特别复杂,包括但不限于:错误收集、点击地方、用户行为…… 菜鸟的需求就是简单收集一下用户的ip、地址、每个界面的访问时间&a…

计算机网络-HTTP相关知识-HTTP的发展

HTTP/1.1 特点: 简单:HTTP/1.1的报文格式包括头部和主体,头部信息是键值对的形式,使得其易于理解和使用。灵活和易于扩展:HTTP/1.1的请求方法、URL、状态码、头字段等都可以自定义和扩展,使得其具有很高的…

【SpringCloud】Ribbon 负载均衡

目 录 一.负载均衡原理二.源码跟踪1. LoadBalancerIntercepor2. LoadBalancerClient3. 负载均衡策略 IRule4. 总结 三.负载均衡策略1.负载均衡策略2.自定义负载均衡策略 四.饥饿加载 在 order-service 中 添加了 LoadBalanced 注解,即可实现负载均衡功能&#xff0c…

Ubuntu20.04使用Neo4j导入CSV数据可视化知识图谱

1.安装JDK( Ubuntu20.04 JDK11) sudo apt-get install openjdk-11-jdk -y java -version which java ls -l /usr/bin/java ls -l /etc/alternatives/java ls -l /usr/lib/jvm/java-11-openjdk-amd64/bin/java确认安装路径为/usr/lib/jvm/java-11-openjd…

Flutter iOS上架指南

本文探讨了使用Flutter开发的iOS应用能否上架,以及上架的具体流程。苹果提供了App Store作为正式上架渠道,同时也有TestFlight供开发者进行内测。合规并通过审核后,Flutter应用可以顺利上架。但上架过程可能存在一些挑战,因此可能…

三星加强Bixby智能:迈向生成式AI,抗衡谷歌Gemini

每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领…

VGA显示器驱动设计与验证

1.原理 场同步信号的单位是像素点 场同步信号的单位是一行 60的含义是每秒钟刷新60帧图像 全0表示黑色 2.1 CLK_gen.v module CLK_gen(input wire sys_clk ,input wire sys_rst_n ,output wire CLK_out ,output wire locked );parameter STATE1b0; reg [1:0] cnt; r…

非关系型数据库-----------Redis的主从复制、哨兵模式

目录 一、redis群集有三种模式 1.1主从复制、哨兵、集群的区别 1.1.1主从复制 1.1.2哨兵 1.1.3集群 二、主从复制 2.1主从复制概述 2.2主从复制的作用 ①数据冗余 ②故障恢复 ③负载均衡 ④高可用基石 2.3主从复制流程 2.4搭建redis主从复制 2.4.1环境准备 2.4…