Kind创建本地环境安装Ingress

目录

1.K8s什么要使用Ingress

2.在本地K8s集群安装Nginx Ingress controller

2.1.使用Kind创建本地集群

2.1.1.创建kind配置文件

2.1.2.执行创建命令

2.2.找到和当前k8s版本匹配的Ingress版本

2.2.1.查看当前的K8s版本

2.2.2.在官网中找到对应的合适版本

2.3.按照版本安装Ingress controller

2.3.1.注意点

2.4.在本地K8s集群部署Demo app

2.4.1.简单开发只含一个api app

2.4.2.构建镜像

2.4.2.1.创建一个Dockerfile文件

2.4.2.2.构建一个镜像

2.4.2.3.运行镜像

2.4.2.4.测试镜像接口

2.4.2.5.结束本地运行

2.4.3.将镜像上传到k8s集群

2.4.4.部署应用到本地k8s集群

2.4.4.1.创建deployment.yaml文件

2.4.4.2.将应用部署到K8s集群

2.5.测试Ingress

2.5.1.创建Ingress.yaml文件

2.5.2.部署一个ingress实例

 2.5.3.测试访问

*2.6.可不可以更便捷的操作命令?

3.Ingress的rules和Nginx的关系?

参考文章


1.K8s什么要使用Ingress

        这个理由,其实很多k8s serive模块存在的理由已经间接做了解释。可以自下而上来回顾一下这个过程。

        首先,当一个app被部署到k8s之后,会以Pod的方式运行在k8s中,Pod运行中,会被分配一个集群内的Ip地址,我们在集群内可以通过这个IP访问到这个Pod,如下图所示:

图1 k8s cluster pod分配了一个IP

        但是,Pod在K8s是不稳定的,Pod每次重启后,这个IP会被重新分配,因此,如果集群内要通过IP访问是不实际的,因此K8s增加了一个组件Service,Service以serviceName作为访问路径,因为serviceName是不变的,不用关注IP的变化,我们可以认为这个路径是稳定不变的。至于为什么serviceName可以当成访问路径,是CoreDNS维护解析的,以后有时间再开文章讨论。

图2 k8s cluster service-pod 访问方式

        增加了service这个组件,解决了Pod的IP会变化的问题,可以通过一个固定的serviceName访问Pod了,那么新的问题就出现了,那么,如何在集群之外访问呢?service组件提供了4种类型:

  • ClusterIP                    # 集群内IP,在集群内访问
  • NodePort                    # 在Node节点开一个端口,然后就可以在集群外通过这个端口访问
  • LoadBalancer             # 云服务商提供,你可以理解是一个专用节点,然后这个节点对外暴露访问端口
  • ExternalName            # 不常用,直接映射到另一个服务的地址,有点类似正向代理

这个有很多文章说的很细,我这边就一笔带过,有个概念就好。

        我们本地k8s直接将Service配置NodePort类型,我们看看会变成什么样

图3 k8s cluster service-NodePort 访问方式

        如上图,Service使用NodePort后,就可以在宿主机直接通过打通的Port访问在K8s内部署的app。那么假如我有很多个App部署在k8s,又如何呢?比如每一个App都要开放一个端口?如下图:

图4 多个Service开启NodePort之后的情况

        从上图可以看出,多个Service开启NodePort之后,就Cluster Node而言,无论从安全还是维护的角度来看,都不应该使用这种方式开放应用的访问。为此,有人想,要不就只开一个NodePort,然后用一个专门的应用"XXX"接收请求,然后再转发所有的请求到具体的Pod上,如下图所示:

图5 可以设置一个XXX应用,作为一个统一的“Gateway”

        如上图,如果我们有一个XXX的应用统一处理请求,就可以解决上述问题。事实上,K8s团队引入了Ingress的组件,这个Ingress就是上图的XXX应用,当然,架构上不止如此简单,会复杂一些,我偷一下懒,从其他文章中“借鉴”了一张图:

图6 ingress的架构图

        这里有几个点要强调一下,方便理解。

1.Ingress是K8s团队定义的,但是这个组件只是一个定义概念,类似于java的interface接口,具体的实现是可以选择的。

2.Ingress controller就是这个具体的实现,可以选择不同的controller,例如:Kubernetes 、Ngnix、Haproxy、kong、Traefik等等。

我们从Kind的官网中,来开启本地安装Ingress的测试。

2.在本地K8s集群安装Nginx Ingress controller

2.1.使用Kind创建本地集群

        我们创建2节点,一个Master Node,一个Worker Node节点,这也是本地创建k8s比较“经济的”的选择,能体验多节点的特性,也能尽可能节约资源。和之前的文章“使用Kind搭建本地k8s集群环境”创建Cluster集群配置有点差别,需要加一些配置。

2.1.1.创建kind配置文件

# 创建2个节点,一个master node,一个worker node,在master node设置labels,配合后续安装ingress controller
cat << EOF > kind-clusters-mutil-config.yaml
kind: Cluster
apiVersion: kind.x-k8s.io/v1alpha4
nodes:
- role: control-planekubeadmConfigPatches:- |kind: InitConfigurationnodeRegistration:kubeletExtraArgs:node-labels: "ingress-ready=true"extraPortMappings:- containerPort: 80hostPort: 80protocol: TCP- containerPort: 443hostPort: 443protocol: TCP
- role: worker
EOF
  • 为主节点添加标签”ingress-ready:true”。Kind提供的Nginx Ingress Controller的部署资源中会通过这个标签选择运行在主节点上。
kubeadmConfigPatches:
- |kind: InitConfigurationnodeRegistration:kubeletExtraArgs:node-labels: "ingress-ready=true"
  • 将容器主节点的80,443端口映射到运行Kind的主机(这里是Win10主机)的80,443端口。Kind提供的Nginx Ingress Controller的服务资源会通过NodePort将服务通过容器主节点的80,443暴露出去,这样用户就可以通过访问本地主机的80,443端口访问运行在集群中的Nginx Ingress Controller。
  extraPortMappings:- containerPort: 80   # 暴露http端口hostPort: 80protocol: TCP- containerPort: 443  # 暴露https端口hostPort: 443protocol: TCP

        如果之前本地有集群,不妨可以先删除,Kind在这方面还是很方便的

➜  ~ kind get clusters
k8s-local-dev
➜  ~ kind delete cluster --name k8s-local-dev
Deleting cluster "k8s-local-dev" ...
➜  ~
图7 创建本地的k8s双节点集群

2.1.2.执行创建命令

        执行命令,创建本地集群

# 执行创建本地集群
kind create cluster --name k8s-local-dev --config ./kind-clusters-mutil-config.yaml
# 将kubeconfig copy到Win10的用户目录下,让Lens可以用
cp ~/.kube/config /mnt/c/Users/${CURRENT_USER}/.kube/config

2.2.找到和当前k8s版本匹配的Ingress版本

2.2.1.查看当前的K8s版本

# 查看k8s版本信息
kubectl version
Client Version: version.Info{Major:"1", Minor:"22", GitVersion:"v1.22.2", GitCommit:"8b5a19147530eaac9476b0ab82980b4088bbc1b2", GitTreeState:"clean", BuildDate:"2021-09-15T21:38:50Z", GoVersion:"go1.16.8", Compiler:"gc", Platform:"linux/amd64"}
Server Version: version.Info{Major:"1", Minor:"23", GitVersion:"v1.23.4", GitCommit:"e6c093d87ea4cbb530a7b2ae91e54c0842d8308a", GitTreeState:"clean", BuildDate:"2022-03-06T21:32:53Z", GoVersion:"go1.17.7", Compiler:"gc", Platform:"linux/amd64"}# 从返回的信息中,我们看到了k8s版本是:v1.23.4

2.2.2.在官网中找到对应的合适版本

登录Nginx Ingress Controller官网,找到匹配的版本

图8 当前k8s集群版本适配的最新Nginx Ingress Controller版本

2.3.按照版本安装Ingress controller

        在Kind的官网中,我们知道,可以通过Helm和mainfests两种方式安装,我们就按mainfest的方式来安装。和官网中的描述相比,我这里增加了版本适配的一个步骤,找到对应的版本后,直接安装。

# 按照对应的版本安装Ngnix Ingress Controller
kubectl apply -f https://raw.githubusercontent.com/kubernetes/ingress-nginx/controller-v1.6.4/deploy/static/provider/kind/deploy.yaml#其中:
#controller-v1.6.4 就是我们依据k8s集群版本找的适配版本
#kind 是指当前mainfests是为Kind创建的集群准备的,还有aws、azure等不同的类型,当然基本也差不多。

注意:官网给的示例是:

kubectl apply -f https://raw.githubusercontent.com/kubernetes/ingress-nginx/main/deploy/static/provider/kind/deploy.yaml

这里的版本是main,指向的是当前最新的release版本。可以在github仓库中查看

图9 截止2023-08-30,最新的版本是controller-v1.8.1
图10 在本地k8s集群中安装Nginx ingress controller

2.3.1.注意点

        我们重点关注一下这个ingress-nginx-controller的Service组件,这就是在宿主机上可以直接访问集群的根本。

......
---
apiVersion: v1
kind: Service
metadata:labels:app.kubernetes.io/component: controllerapp.kubernetes.io/instance: ingress-nginxapp.kubernetes.io/name: ingress-nginxapp.kubernetes.io/part-of: ingress-nginxapp.kubernetes.io/version: 1.6.4name: ingress-nginx-controllernamespace: ingress-nginx
spec:ipFamilies:- IPv4ipFamilyPolicy: SingleStackports:- appProtocol: httpname: httpport: 80protocol: TCPtargetPort: http- appProtocol: httpsname: httpsport: 443protocol: TCPtargetPort: httpsselector:app.kubernetes.io/component: controllerapp.kubernetes.io/instance: ingress-nginxapp.kubernetes.io/name: ingress-nginxtype: NodePort
---
......

        因为当前Service的Typp是NodePort,而暴露的端口分别是http:80/https:443。和2.2.1章节中的集群配置是对的上的。如果需要自定义,可以修改这个port。

2.3.1.检查安装的Ingress状态

        主要是检查如下图的3个Pod(Namespace:ingress-nginx)

图11 在Lens中查看集群中安装Nginx ingress controller的Pod状态

        这里不要出现黄色的感叹号,因为有感叹号,就说明部署Ingress有问题。也没有别的办法,可能需要重新安装Ingress甚至k8s集群。

图12 出现感叹号,也没什么解决办法,我重试就解决了

2.4.在本地K8s集群部署Demo app

        安装这个Demo app的目的是为了验证请求是否能到Pod,因此,这个应用不需要太复杂,只需要有一个简单的api接口方便测试。

2.4.1.简单开发只含一个api app

        我这里使用springboot开发,增加一个Controller,开发一个hollo world的接口

package com.demo.java.springboot.web;import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.ResponseBody;
import org.springframework.web.bind.annotation.RestController;/*** @author lyg 2021年9月22日下午2:18:53*/@ResponseBody
@RestController
@RequestMapping("test")
public class TestCtrl {@RequestMapping("say")public String testFunc() {	System.out.println("hello world!");return "hello world!";}
}

一个工程若要跑起来,一个cotroller肯定是不行的,这边我省略了

2.4.2.构建镜像

2.4.2.1.创建一个Dockerfile文件

        在工程根目录下,创建一个Dockerfile文件

cat << EOF > Dockerfile
# baselibrary, jdk8
FROM openjdk:8-jdk-alpine
ADD ./target/app.jar /app/app.jar
WORKDIR /app
EXPOSE 8080
ENTRYPOINT java -jar ./app.jar
EOF

其中,./target/app.jar是当前springboot工程构建后,在功能目录下的artifacts.

# springboot工程构建命令(前提是Maven已经被配置,这里就不演示了)
mvn clear && mvn install

2.4.2.2.构建一个镜像

# 将demo app工程构建成为一个镜像
docker build -f Dockerfile -t demo-java-serive:1.0 .

2.4.2.3.运行镜像

# 运行镜像
docker run --name java-demo-app -it -p 8080:8080  -d demo-java-serive:1.0

2.4.2.4.测试镜像接口

当应用启动后,可以通过postman

图13 镜像docker run ...之后,本地测试镜像测试接口可以测通

或者直接使用curl访问

# 访问测试api
curl http://127.0.0.1:8080/test/say
# 预期返回:hello world!#

2.4.2.5.结束本地运行

# 停止并删除容器
docker container stop java-demo-app && docker container rm java-demo-app
# image还是不能删除的,留着,我们要测试ingress

2.4.3.将镜像上传到k8s集群

        将镜像上传到kind创建的本地k8s集群

# 使用Kind命令,将测试镜像上传到kind创建的本地k8s集群
kind load docker-image demo-java-serive:1.0 --name k8s-local-dev# 说明:
# demo-java-serive:1.0    我的测试demo app镜像名称:版本
# k8s-local-dev           kind创建的本地k8s集群名称
图14 将测试demo app镜像上传到本地k8s集群

可以看到,镜像被上传到2个集群节点中了 

2.4.4.部署应用到本地k8s集群

2.4.4.1.创建deployment.yaml文件

cat << EOF > deployment.yaml
apiVersion: apps/v1
kind: Deployment
metadata:name: deploymentdemo1labels:app: deploymentdemo1
spec:replicas: 1selector:matchLabels:app: deploymentdemo1template:metadata:name: deploymentdemo1labels:app: deploymentdemo1spec:containers:- name: deploymentdemo1image: demo-java-serive:1.0imagePullPolicy: IfNotPresentports:- containerPort: 8080restartPolicy: Always---apiVersion: v1
kind: Service
metadata:name: deploymentdemo1-service
spec:selector:app: deploymentdemo1ports:- name: deploymentdemo1-service-portprotocol: TCPport: 8080targetPort: 8080EOF

        如上所示,这里包含这个Deployment、Service两种组件,“---”就是yaml文件分隔不同资源的分隔符。其中Service没有指明类型,默认使用ClusterIP类型。

        就一般而言,将一个应用部署到k8s,我们一般都使用Deployment这个组件,所以我创建部署yaml文件一般习惯命名为deployment.yaml,但是其实Deployment组件一般和Service是配套的,也就是说,deployment.yaml文件是部署应用的组件mainfest清单,可能包含多种组件资源。 

2.4.4.2.将应用部署到K8s集群

        执行命令,在k8s上部署Demo app

# 在k8s集群部署Demo app
kubectl create -f deployment.yaml
图15 部署demo app到k8s中
图16 在k8s中,已创建Deployment、Pod、和Service

         重新拿之前的图来理解一下,这时,我们应该已经创建了如下图红框所示的两个组件

图17 部署Deployment(最终体现为Pod)、Service

        在这一步中,我遇到过deployment已经创建,但是Pod没有创建出来的奇怪现象,后面我删除了集群重新建再试就可以了

2.5.测试Ingress

2.5.1.创建Ingress.yaml文件

cat <<EOF > ingress.yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:name: example-ingressannotations:kubernetes.io/ingress.class: "nginx"
spec:rules:- http:paths:- pathType: Prefixpath: /testbackend:service:name: deploymentdemo1-serviceport:number: 8080
EOF

        这里,我们只是列举了一个最简单的Ingress的规则,就是请求路径带test的,转发到Service(deploymentdemo1-service:8080),这个Service就是我们之前部署的Demo app Service服务。

        还有很多其他的配置,包括annotation都是有讲究的,点击传送

2.5.2.部署一个ingress实例

# 部署一个Ingress请求转发实例
kubectl apply -f ingress.yaml
# ingress.networking.k8s.io/example-ingress created
图18 在Lens上看到Ingress已经存在一个实例了

 2.5.3.测试访问

        这里我们需要回顾2.3.1章节的内容,因为Ingress-controller-serive绑定的端口80,因此,我们的访问路径就是http://12.0.0.1:80/...或缺省http://12.0.0.1/....

        postman直接访问

图19 直接访问宿主机(localhost)绑定的Ingress接口(80)成功

        事实上,我们也可以为每一个的应用定一个前缀,毕竟应用太多,api的路径有可能重复,比如app1和app2都有一个/test/say的接口,这时,我们可以重新写url path,如下:

cat <<\EOF > ingress.yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:name: example-ingressannotations:nginx.ingress.kubernetes.io/rewrite-target: /$2kubernetes.io/ingress.class: "nginx"
spec:rules:- http:paths:- pathType: Prefixpath: /app1(/|$)(.*)backend:service:name: deploymentdemo1-serviceport:number: 8080
EOF

        这时,访问路径可以加一个前缀,变为http://localhost/app1/test/say

图20 访问时可以加前缀区分不同的应用,毕竟可以重写path

*2.6.可不可以更便捷的操作命令?

        我们在整个过程中,有大量操作的shell命令的过程,记不住,容易错,用本子记录每次还要copy出来,非常繁琐,我们完全可使用Makefile定义几个function,然后使用make [command] [variable] 执行命令,例如我定义的Makefile供大家参考:

# Image URL to use all building/pushing image targets
IMG ?= demo-java-serive:1.0
# ENVTEST_K8S_VERSION refers to the version of kubebuilder assets to be downloaded by envtest binary.
ENVTEST_K8S_VERSION = 1.23
# 本地集群的名称
KUBE_CLUSTER ?= k8s-local-dev
# 本地集群配置文件的名称
KUBE_CLUSTER_INIT_CONFIGFILE ?= kind-clusters-mutil-config.yaml
# Ingress版本
INGRESS_NGNIX_CTL_VERSION ?=v1.6.4.PHONY: create-k8s
create-k8s: ## create local k8s by config file and synchronize the kubeconfigkind create cluster --name ${KUBE_CLUSTER} --config ./${KUBE_CLUSTER_INIT_CONFIGFILE} && cp ~/.kube/config /mnt/c/Users/Geoff_Lin/.kube/config.PHONY: delete-k8s
delete-k8s: ## delete local k8skind delete cluster --name ${KUBE_CLUSTER}.PHONY: install-ingress
install-ingress: ## install ingress by mainfest.yamlkubectl apply -f https://raw.githubusercontent.com/kubernetes/ingress-nginx/controller-${INGRESS_NGNIX_CTL_VERSION}/deploy/static/provider/kind/deploy.yaml.PHONY: kind-load
kind-load: ## load the local image to the kind clusterkind load docker-image ${IMG} --name ${KUBE_CLUSTER}.PHONY: deploy-app
deploy-app: ## deploy my java demo applicationkubectl apply -f ./deployment.yaml.PHONY: deploy-ingress-inst
deploy-ingress-inst: ## install ingress instance which configurate proxy ruleskubectl apply -f ./ingress.yaml

需要注意,命令缩进只能用“tab”键,不能使用空格键,不然make命令会报错 

我们可以方便地执行这些命令

# 删除集群
make delete-k8s
# 创建集群
make create-k8s
# 安装Ingress
make install-ingress
# 上传demo app镜像
make kind-load
# 部署demo app 到k8s
make deploy-app
# 部署Ingress代理规则
make deploy-ingress-inst
......

3.Ingress的rules和Nginx的关系?

        我们走了一遍流程发现,ingress.yaml配置rule的就是一个代理转发,我们在前面的章节中知道,我们的ingress controller采用的是Ngnix controller,也就是说,ingress.yaml配置的rule,会转化成nginx.conf的配置,实际上做转发的就是ngnix。

        为此,我们可以验证一下,打开ingress-nginx-controller这个pod的控制台,进入容器目录(就是一个ngnix镜像),打开nginx.conf,容易发现我们ingress.yaml配置的规则已经转变成为server下的一个location了。

图21 进入ingress-ngnix-controller目录
图22 Ingress.yaml中的rule转化为nginx.conf的一个location配置

参考文章

kind – Ingress

Installation Guide - Ingress-Nginx Controller

Kind创建本地Kubernetes集群 - 云斋随笔

https://github.com/kubernetes/ingress-nginx

Installation with the NGINX Ingress Operator | NGINX Ingress Controller

Kubernetes — 服务类型(Service Types) - 知乎

Flowchart Maker & Online Diagram Software

Ingress Annotation 配置说明 | Higress

ingress-nginx 中 Rewrite 的使用-阳明的博客|Kubernetes|Istio|Prometheus|Python|Golang|云

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/115809.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

/bin/bash: Resource temporarily unavailable

有现场反馈plsql无法连接数据库了&#xff0c;登录环境查看时发现从root切换到grid时报错/bin/bash: Resource temporarily unavailable [rootdb1 ~]# su - grid Last login: Thu Jul 27 18:45:04 CST 2023 su: failed to execute /bin/bash: Resource temporarily unavailab…

【pyinstaller 怎么打包python,打包后程序闪退 不打日志 找不到自建模块等问题的踩坑解决】

程序打包踩坑解决的所有问题 问题1 多个目录怎么打包 不管你包含多个层目录&#xff0c;引用多么复杂&#xff0c;只需要打包主程序所在文件即可&#xff0c;pyinstaller会自动寻找依赖包&#xff0c;如果报错自建模块找不到&#xff0c;参照问题3 pyinstaller main.py问题2…

【文心一言大模型插件制作初体验】制作面试错题本大模型插件

文心一言插件开发初体验 效果图 注意&#xff1a;目前插件仅支持在本地运行&#xff0c;虽然只能自用&#xff0c;但仍然是一个不错的选择。&#xff08;什么&#xff1f;你说没有用&#xff1f;这不可能&#xff01;文心一言app可以支持语音&#xff0c;网页端结合手机端就可…

Linux安装JenkinsCLI

项目简介安装目录 mkdir -p /opt/jenkinscli && cd /opt/jenkinscli JenkinsCLI下载 wget http://<your-jenkins-server>/jnlpJars/jenkins-cli.jar # <your-jenkins-server> 替换为你的 Jenkins 服务器地址 JenkinsCLI授权 Dashboard-->Configure Glob…

Flink 如何定位反压节点?

分析&回答 Flink Web UI 自带的反压监控 —— 直接方式 Flink Web UI 的反压监控提供了 Subtask 级别的反压监控。监控的原理是通过Thread.getStackTrace() 采集在 TaskManager 上正在运行的所有线程&#xff0c;收集在缓冲区请求中阻塞的线程数&#xff08;意味着下游阻…

解决window安装docker报错问题

第一次打开Docker Desktop后提示错误 试了网上版本都没用&#xff0c;后面发现是电脑没有下载相关虚拟机&#xff1a; 先点击链接下载wsl2&#xff0c;下载后命令行执行&#xff1a;dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /…

盘点狼人杀中的强神与弱神 并评价操作体验

最初 强神是大家对猎人的称呼&#xff0c;但随着板子的增加 强神渐渐变成了强神神牌的统称。 狼人杀发展至今板子已经非常多了&#xff0c;而每个板子都会有不同的角色。 相同的是 大部分都会希望拿到一张强力神牌&#xff0c;这样能大大提高我们玩家的游戏体验&#xff0c;但其…

电脑报错vcomp100.dll丢失怎样修复,多个解决方法分享

今天&#xff0c;我想和大家分享一下关于vcomp100.dll丢失修复的经验。在我们的日常生活中&#xff0c;电脑出现问题是在所难免的&#xff0c;而vcomp100.dll文件丢失的问题也是很常见的。那么&#xff0c;当遇到这个问题时&#xff0c;我们应该如何进行修复呢&#xff1f;接下…

前端是leyui后端sqlserver和maraDB进行分页

项目场景&#xff1a; 前端是leyui后端sqlserver和maraDB进行分页,两种数据库在后端分页的不同写法 解决方案&#xff1a; 前端: 定义table,表格的格式在接口返回时进行创建,根据id进行绑定 <div class"layui-tab-item layui-show" style"padding-top: 10…

论文阅读_变分自编码器_VAE

英文名称: Auto-Encoding Variational Bayes 中文名称: 自编码变分贝叶斯 论文地址: http://arxiv.org/abs/1312.6114 时间: 2013 作者: Diederik P. Kingma, 阿姆斯特丹大学 引用量: 24840 1 读后感 VAE 变分自编码&#xff08;Variational Autoencoder&#xff09;是一种生…

elementUI中的table动态表单记录

form表单与table一起使用 之前一直以为form表单是单独使用&#xff0c;现在联动起来发现只是套了一层外壳&#xff0c;并不是很麻烦的事情 form的单独使用 <el-form :model"ruleForm" status-icon :rules"rules" ref"ruleForm" label-widt…

Navicat 强大的数据模型功能 | 面向数据库设计、架构和数据资产梳理等使用场景

数据模型是用来描述数据、组织数据和对数据进行操作的一组概念和定义。根据不同的应用需求&#xff0c;数据模型可以分为概念模型、逻辑模型和物理模型。这些数据模型帮助数据库设计人员设计和管理数据库&#xff0c;以满足用户的需求。 Navicat 强大的数据模型功能主要适用于…

Java 枚举是什么?什么是枚举类?枚举类的用途?

目录 1. 什么是枚举&#xff1f; 2. 枚举类 3. 枚举类的用途 1. 什么是枚举&#xff1f; 我们可以从字面意思来理解&#xff0c;枚&#xff1a;一枚一枚的&#xff0c;举&#xff1a;举例&#xff0c;举出&#xff0c;将二者意思结合起来可以理解为一个一个的举出。 这样听…

中科驭数以DPU先进计算技术,夯实下一代金融IT基础设施底座

由中国计算机学会主办的第19届CCF全国高性能计算学术年会&#xff08;CCF HPC China 2023&#xff09;于8月23日至26日在青岛成功召开。在“高性能金融计算”主题论坛上&#xff0c;中科驭数高级副总裁、CTO卢文岩应邀发表了题为《DPU先进计算技术助力下一代交易底座》的演讲&a…

技术领导力实战笔记25

25&#xff5c;用心做好“鼓励式”管理 激发正能量 授权 分工作&#xff1a; 老人干新事&#xff0c;新人干老事&#xff0c;强者干难事&#xff0c;弱者干细事 新人干老事 所谓新人&#xff0c;是对业务产品不了解&#xff0c;对工作流程不清晰的岗位新人。对于新人来说&…

百亿级访问量,如何做缓存架构设计

说在前面 在40岁老架构师 尼恩的读者社区(50)中&#xff0c;最近有小伙伴拿到了一线互联网企业如阿里、网易、有赞、希音、百度、网易、滴滴的面试资格&#xff0c;遇到一几个很重要的面试题&#xff1a;&#xff1a; 分布式缓存系统&#xff0c;如何架构&#xff1f;百亿级访…

数据结构(Java实现)-java对象的比较

元素的比较 基本类型的比较 在Java中&#xff0c;基本类型的对象可以直接比较大小。 对象比较的问题 Java中引用类型的变量不能直接按照 > 或者 < 方式进行比较 默认情况下调用的就是equal方法&#xff0c;但是该方法的比较规则是&#xff1a;没有比较引用变量引用对象的…

【ES6】JavaScript 中的数组方法reduce

reduce() 是一个 JavaScript 中的数组方法&#xff0c;它会对数组的每个元素执行一个提供的 reducer 函数&#xff0c;将其减少到一个单一的值。 这是 reduce() 的基本用法&#xff1a; //(method) Array<number>.reduce(callbackfn: (previousValue: number, currentV…

linux中安装nodejs,卸载nodejs,更新nodejs,git,linux中安装nginx并配置

文章目录 node的安装与卸载&#xff08;更新版本&#xff09;卸载nodejs安装新版本node git安装与拉取代码安装解决 linux git 每次推拉(push/pull)代码都要输入用户名密码的问题 nginx 安装、配置和卸载安装nginx配置**.conf 文件内容 nginx 卸载 注意&#xff0c;我的是Ubunt…

SpringCloud--从零开始搭建微服务基础环境入门教程【一】

&#x1f600;前言 本篇博文是关于SpringCloud–从零开始搭建微服务基础环境入门教程【一】&#xff0c;希望你能够喜欢&#x1f609; &#x1f3e0;个人主页&#xff1a;晨犀主页 &#x1f9d1;个人简介&#xff1a;大家好&#xff0c;我是晨犀&#xff0c;希望我的文章可以帮…