深入解读Prometheus Adapter:云原生监控的核心组件

file

一、引言

file

Prometheus Adapter的背景与重要性

在现代的云原生架构中,微服务和容器化技术得到了广泛的应用。这些技术带来了系统灵活性和扩展性的提升,但同时也增加了系统监控和管理的复杂度。Prometheus作为一款开源的监控系统,因其强大的指标收集和查询能力,成为了许多企业和开发者的首选。然而,随着应用场景的多样化和规模的不断扩大,单纯依赖Prometheus内置的功能已经不能满足所有需求。Prometheus Adapter应运而生,作为Prometheus生态系统的重要组成部分,提供了强大的自定义指标扩展和灵活的指标查询能力。

Prometheus Adapter的核心功能是将Prometheus中的监控数据转换为Kubernetes可识别的自定义指标,这对于实现基于自定义指标的自动扩展(Horizontal Pod Autoscaler,HPA)至关重要。在复杂的微服务架构和大规模集群管理中,通过Prometheus Adapter,用户可以自定义监控指标,进行精细化的资源管理和自动化运维,从而提升系统的可靠性和性能。

适用场景与应用需求

Prometheus Adapter主要应用于以下几种场景:

  1. 自定义指标的自动扩展:在Kubernetes中,HPA主要依赖于CPU和内存等基础资源的使用情况进行自动扩展。但在实际应用中,用户往往需要基于业务指标(如请求响应时间、队列长度等)进行扩展。Prometheus Adapter允许用户定义和使用自定义的Prometheus查询,将这些业务指标转化为HPA可识别的指标,从而实现更精细的扩展策略。

  2. 多集群环境下的统一监控:在多集群环境中,管理和监控各个集群的资源和应用是一项复杂的任务。通过Prometheus Adapter,用户可以将不同集群的Prometheus数据统一处理和展示,实现跨集群的集中监控和管理,提高运维效率。

  3. 复杂业务场景下的灵活监控:在一些复杂业务场景中,用户需要对特定的应用或服务进行深入监控。例如,在电商网站中,用户可能需要监控每秒订单数、支付成功率等业务指标。通过Prometheus Adapter,用户可以自定义监控这些特定业务指标,结合Prometheus强大的查询功能,进行灵活多样的监控和分析。

Prometheus Adapter的功能与优势

Prometheus Adapter具备以下几项关键功能和优势:

  1. 灵活的自定义指标定义:用户可以通过简单的配置文件,定义复杂的Prometheus查询,将结果转化为Kubernetes自定义指标。这使得用户可以根据具体的业务需求,灵活定义和使用各种自定义指标。

  2. 高效的数据查询与转换:Prometheus Adapter通过高效的查询和数据转换机制,能够快速处理大量监控数据,并将其转换为Kubernetes可识别的格式。这对于大规模集群和高并发场景尤为重要,能够确保监控系统的实时性和可靠性。

  3. 与Kubernetes的无缝集成:作为Prometheus生态系统的一部分,Prometheus Adapter与Kubernetes有着紧密的集成。用户可以方便地在Kubernetes中部署和管理Prometheus Adapter,实现与现有监控系统的无缝对接,简化运维操作。

  4. 社区支持与扩展性:Prometheus Adapter作为一个开源项目,有着活跃的社区支持。用户可以通过参与社区贡献,获取最新的功能更新和技术支持。此外,Prometheus Adapter还具备良好的扩展性,用户可以根据自身需求进行二次开发和定制。

二、Prometheus Adapter的基本概念

什么是Prometheus Adapter

Prometheus Adapter是一个开源工具,用于将Prometheus中的监控数据转换为Kubernetes自定义指标。这一转换过程使得Kubernetes可以基于这些自定义指标进行自动扩展(Horizontal Pod Autoscaler,HPA)和其他自定义操作。通过Prometheus Adapter,用户可以将复杂的业务指标引入到Kubernetes的监控和管理体系中,从而实现更灵活、更细致的资源管理。

Prometheus Adapter的出现源于对监控灵活性和扩展性的需求。在传统的监控体系中,监控指标通常固定在CPU、内存等基础资源上。然而,实际的业务需求往往更加复杂多样。例如,在电商网站中,监控订单处理时间、用户请求数等业务指标往往比单纯的资源指标更为重要。Prometheus Adapter通过将Prometheus的强大查询功能与Kubernetes的自定义指标相结合,提供了一个解决这一需求的有效方案。

Prometheus Adapter的架构与工作原理

Prometheus Adapter的架构设计旨在高效、可靠地实现监控数据的转换和传输。其核心组件包括配置解析器、数据查询模块和指标转发模块。以下是对这些组件的详细解析:

  1. 配置解析器:配置解析器负责读取和解析用户定义的配置文件。这些配置文件中定义了Prometheus查询规则、自定义指标名称和转换逻辑。配置解析器将这些配置转化为内部数据结构,供后续模块使用。

  2. 数据查询模块:数据查询模块负责与Prometheus实例通信,执行配置文件中定义的查询操作。通过使用Prometheus的HTTP API,数据查询模块可以获取实时的监控数据。数据查询模块需要具备高效的数据处理能力,以应对大规模集群和高并发环境下的查询需求。

  3. 指标转发模块:指标转发模块负责将查询到的数据转换为Kubernetes可识别的自定义指标格式,并将这些指标推送到Kubernetes API服务器。通过与Kubernetes的Metric API集成,指标转发模块确保这些自定义指标可以被Kubernetes中的其他组件(如HPA)识别和使用。

Prometheus Adapter与Prometheus的关系与区别

Prometheus Adapter与Prometheus之间存在紧密的关系,但两者的功能定位和使用场景有所不同:

  1. 功能定位:Prometheus是一个强大的监控系统,负责数据的采集、存储和查询。它通过抓取各类监控目标的数据,提供丰富的查询和告警功能。Prometheus Adapter则是一个数据转换工具,负责将Prometheus中的监控数据转换为Kubernetes自定义指标。其核心功能是将Prometheus强大的查询能力引入到Kubernetes的监控和管理体系中。

  2. 使用场景:Prometheus主要用于各类系统和应用的监控,其使用场景包括基础设施监控、应用性能监控和业务指标监控等。Prometheus Adapter则主要用于Kubernetes环境中,特别是在需要基于自定义指标进行自动扩展和其他自定义操作的场景中。通过Prometheus Adapter,用户可以将复杂的业务指标引入到Kubernetes的自动化管理流程中。

  3. 技术实现:Prometheus通过抓取各类监控目标的HTTP端点,收集和存储时序数据。它的架构设计强调高效的数据采集和查询能力。Prometheus Adapter则通过调用Prometheus的HTTP API,执行预定义的查询操作,并将结果转换为Kubernetes自定义指标。两者在技术实现上有明显的区别,但通过API接口实现了紧密的集成。

三、部署与安装

环境要求

在部署Prometheus Adapter之前,需要确保以下环境和软件组件已经正确安装和配置:

  1. Kubernetes集群

  • 版本要求:Kubernetes 1.14及以上

  • 集群内应至少包含一个主节点和若干工作节点

  • 已正确配置kubectl命令行工具,并能够正常访问集群

  1. Prometheus实例

  • 版本要求:Prometheus 2.0及以上

  • Prometheus应已经部署并在集群中运行,确保能够采集和存储监控数据

  • 确保Prometheus的HTTP API可用,并且集群内的组件能够访问该API

  1. Helm(可选):

  • 版本要求:Helm 3.0及以上

  • Helm用于简化Prometheus Adapter的安装和管理,但也可以通过手动部署YAML文件进行安装

安装步骤

Prometheus Adapter的安装过程可以通过两种方式完成:使用Helm Chart进行安装或手动部署YAML文件。以下将详细介绍这两种安装方式。

使用Helm Chart进行安装

  1. 添加Prometheus Adapter的Helm仓库

helm repo add prometheus-community https://prometheus-community.github.io/helm-charts
helm repo update

  1. 安装Prometheus Adapter

helm install prometheus-adapter prometheus-community/prometheus-adapter --namespace monitoring

  1. 验证安装:安装完成后,检查Prometheus Adapter的Pod是否成功启动:

kubectl get pods -n monitoring -l app=prometheus-adapter

手动部署YAML文件

  1. 下载Prometheus Adapter的部署文件

可以从Prometheus Adapter的GitHub仓库获取最新的部署文件:

git clone https://github.com/kubernetes-sigs/prometheus-adapter.git
cd prometheus-adapter/deploy/manifests

  1. 部署Prometheus Adapter

kubectl apply -f .

  1. 验证安装

同样,检查Prometheus Adapter的Pod是否成功启动:

kubectl get pods -n custom-metrics

配置详解

安装完成后,需要对Prometheus Adapter进行详细的配置,以确保其能够正确地与Prometheus和Kubernetes集成。配置主要通过一个YAML文件进行定义,其中包括Prometheus的地址、自定义查询规则、以及Kubernetes API服务器的相关设置。

配置文件结构

Prometheus Adapter的配置文件通常包含以下几个部分:

  1. MetricMappings

定义Prometheus查询规则和Kubernetes自定义指标的映射关系。

  1. Rules

定义自定义的Prometheus查询规则,包括指标名称、查询语法等。

  1. ResourceRules

定义与Kubernetes资源相关的查询规则,如节点、Pod等。

  1. MetricsRelabelings

定义如何从Prometheus查询结果中提取和转换指标。

以下是一个示例配置文件:

apiVersion: v1
kind: ConfigMap
metadata:name: custom-metrics-confignamespace: custom-metrics
data:config.yaml: |rules:default: falseseriesQuery: 'http_requests_total{namespace!="",pod!=""}'resources:overrides:namespace: {resource: "namespace"}pod: {resource: "pod"}name:matches: "^(.*)_total"as: "${1}_per_second"metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'

如何定义自定义的指标

在配置文件中,可以通过rules部分定义自定义的Prometheus查询规则。以下是一个详细的示例:

rules:- seriesQuery: 'http_requests_total{namespace!="",pod!=""}'resources:overrides:namespace: {resource: "namespace"}pod: {resource: "pod"}name:matches: "^(.*)_total"as: "${1}_per_second"metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'

  • seriesQuery:定义需要查询的Prometheus指标。

  • resources:定义如何将Prometheus指标中的标签映射到Kubernetes资源。

  • name:定义转换后的自定义指标名称。

  • metricsQuery:定义具体的Prometheus查询语法,用于计算自定义指标的值。

不同数据源的适配

除了Prometheus,Prometheus Adapter还可以适配其他数据源,如Thanos、VictoriaMetrics等。通过在配置文件中定义不同的数据源地址和查询规则,可以实现多数据源的灵活适配。例如:

prometheus:url: http://thanos-query:9090/path: /api/v1/query

常见问题与解决方案

在部署和配置Prometheus Adapter的过程中,可能会遇到一些常见问题。以下是几种典型问题及其解决方案:

无法连接到Prometheus实例

解决方案

  • 检查Prometheus的服务地址和端口,确保Prometheus Adapter的配置文件中地址正确无误。

  • 使用curl或wget命令测试Prometheus API的可访问性。

curl http://prometheus-server:9090/api/v1/query?query=up

自定义指标无法被Kubernetes识别

解决方案

  • 确保自定义查询规则符合Prometheus Adapter的配置规范,并且Prometheus中确实存在相应的指标数据。

  • 使用Prometheus的表达式浏览器(Expression Browser)验证查询语法,确保查询结果正确。

查询结果为空

解决方案

  • 检查Prometheus中的原始数据,确保数据确实存在并且符合查询条件。

  • 调整查询窗口或查询条件,确保能够匹配到预期的数据。

查询语法错误

解决方案

  • 使用Prometheus的表达式浏览器验证查询语法,确保语法正确。

  • 检查配置文件中的查询规则,确保没有语法错误或拼写错误。

curl http://prometheus-server:9090/api/v1/query?query=sum(rate(http_requests_total[5m])) by (namespace, pod)

验证配置

完成配置后,可以通过以下步骤验证Prometheus Adapter的工作情况:

  1. 检查Prometheus Adapter的日志

kubectl logs -n custom-metrics <prometheus-adapter-pod-name>

  1. 验证自定义指标

使用kubectl命令查看自定义指标是否成功导入Kubernetes API服务器:

kubectl get --raw "/apis/custom.metrics.k8s.io/v1beta1" | jq .

  1. 测试HPA配置

创建一个基于自定义指标的HPA资源,验证其是否能够正常工作:

apiVersion: autoscaling/v2beta2
kind: HorizontalPodAutoscaler
metadata:name: custom-metrics-hpanamespace: default
spec:scaleTargetRef:apiVersion: apps/v1kind: Deploymentname: my-deploymentminReplicas: 1maxReplicas: 10metrics:- type: Podspods:metric:name: http_requests_per_secondtarget:type: AverageValueaverageValue: 100

通过以上步骤,可以验证Prometheus Adapter的安装和配置是否正确,以及自定义指标是否能够被Kubernetes正常识别和使用。

四、Prometheus Adapter的配置

配置文件详解

Prometheus Adapter的配置文件主要用于定义如何将Prometheus中的监控数据转换为Kubernetes可识别的自定义指标。配置文件通常使用YAML格式,包含多个部分,每一部分都负责特定的配置任务。

核心配置组件

  1. metricsRelabelings

  • 用于重新标记和筛选Prometheus中的原始指标。

  • 例子:

metricsRelabelings:- sourceLabels: [__name__]separator: ;regex: '(.*)'targetLabel: metric_namereplacement: '${1}'action: replace

  1. rules

  • 定义如何从Prometheus查询中生成自定义指标。

  • 例子:

rules:- seriesQuery: 'http_requests_total{namespace!="",pod!=""}'resources:overrides:namespace: {resource: "namespace"}pod: {resource: "pod"}name:matches: "^(.*)_total"as: "${1}_per_second"metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'

  1. resourceRules

  • 用于定义与Kubernetes资源相关的查询规则,例如节点和Pod的指标。

  • 例子:

resourceRules:cpu:name:matches: "^(.*)_cpu_usage"as: "custom_cpu_usage"metricsQuery: 'sum(rate(container_cpu_usage_seconds_total{<<.LabelMatchers>>}[1m])) by (<<.GroupBy>>)'

如何定义自定义的指标

自定义指标的定义过程涉及编写Prometheus查询,并将其转换为Kubernetes自定义指标。以下是详细步骤:

步骤1:编写Prometheus查询

首先,在Prometheus中编写查询以获取所需的数据。例如,要获取每秒HTTP请求数,可以使用以下查询:

sum(rate(http_requests_total[5m])) by (namespace, pod)

步骤2:定义配置规则

在Prometheus Adapter的配置文件中,定义对应的查询规则和指标转换逻辑。例如:

rules:- seriesQuery: 'http_requests_total{namespace!="",pod!=""}'resources:overrides:namespace: {resource: "namespace"}pod: {resource: "pod"}name:matches: "^(.*)_total"as: "${1}_per_second"metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'

上述配置中:

  • seriesQuery:指定Prometheus中的原始指标。

  • resources:定义如何将Prometheus指标中的标签映射到Kubernetes资源。

  • name:指定自定义指标的命名规则。

  • metricsQuery:定义Prometheus查询语法,计算自定义指标的值。

步骤3:部署配置文件

将配置文件部署到Kubernetes中:

kubectl apply -f custom-metrics-config.yaml

不同数据源的适配

Prometheus Adapter不仅可以与Prometheus集成,还可以适配其他数据源,例如Thanos和VictoriaMetrics。配置方法类似,通过定义不同的数据源地址和查询规则,实现灵活的多数据源适配。

适配Thanos

Thanos是一个用于Prometheus高可用性、长时间存储和多集群聚合的解决方案。可以通过以下配置适配Thanos:

prometheus:url: http://thanos-query:9090/path: /api/v1/query

在这种配置中,url指向Thanos查询服务的地址,path指定查询API路径。

适配VictoriaMetrics

VictoriaMetrics是一个高性能的开源时间序列数据库,兼容Prometheus。适配VictoriaMetrics的配置示例如下:

prometheus:url: http://victoriametrics:8428/path: /api/v1/query

高级配置技巧

动态标签处理

Prometheus Adapter支持动态标签处理,通过metricsRelabelingsrules部分的配置,可以灵活处理Prometheus指标中的标签。例如:

metricsRelabelings:- sourceLabels: [__name__]separator: ;regex: '(.*)'targetLabel: metric_namereplacement: '${1}'action: replace

分片与聚合

在大规模集群中,可以通过分片和聚合策略,提升查询性能和数据处理效率。例如:

rules:- seriesQuery: 'container_cpu_usage_seconds_total{namespace!="",pod!=""}'resources:overrides:namespace: {resource: "namespace"}pod: {resource: "pod"}name:matches: "^(.*)_cpu_usage_seconds_total"as: "${1}_cpu_usage"metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'

上述配置通过sum(rate(...))实现数据的聚合处理,适用于大规模数据场景。

常见问题与解决方案

在配置和使用Prometheus Adapter时,可能会遇到一些常见问题。以下是几种典型问题及其解决方案:

自定义指标查询失败

问题描述:配置的自定义指标无法在Kubernetes中查询到。

解决方案

  1. 检查Prometheus查询语法,确保其在Prometheus表达式浏览器中能够返回预期结果。

  2. 确认Prometheus Adapter配置文件的语法和内容正确。

  3. 查看Prometheus Adapter的日志,排查错误信息。

kubectl logs -n custom-metrics <prometheus-adapter-pod-name>

连接Prometheus失败

问题描述:Prometheus Adapter无法连接到Prometheus实例。

解决方案

  1. 确认Prometheus实例的地址和端口正确无误。

  2. 检查网络连接,确保Prometheus Adapter所在Pod能够访问Prometheus实例。

curl http://prometheus-server:9090/api/v1/query?query=up

指标名称冲突

问题描述:配置的自定义指标名称与现有指标名称冲突。

解决方案

  1. 在定义自定义指标时,使用独特的命名规则,避免与现有指标名称重复。

  2. 通过name配置部分,灵活调整自定义指标名称。

name:matches: "^(.*)_total"as: "${1}_custom_per_second"

验证配置

完成配置后,可以通过以下步骤验证Prometheus Adapter的工作情况:

  1. 检查Prometheus Adapter的日志

kubectl logs -n custom-metrics <prometheus-adapter-pod-name>

  1. 验证自定义指标:使用kubectl命令查看自定义指标是否成功导入Kubernetes API服务器:

kubectl get --raw "/apis/custom.metrics.k8s.io/v1beta1" | jq .

  1. 测试HPA配置:创建一个基于自定义指标的HPA资源,验证其是否能够正常工作:

apiVersion: autoscaling/v2beta2
kind: HorizontalPodAutoscaler
metadata:name: custom-metrics-hpanamespace: default
spec:scaleTargetRef:apiVersion: apps/v1kind: Deploymentname: my-deploymentminReplicas: 1maxReplicas: 10metrics:- type: Podspods:metric:name: http_requests_per_secondtarget:type: AverageValueaverageValue: 100

通过以上步骤,可以验证Prometheus Adapter的配置是否正确,自定义指标是否能够被Kubernetes正常识别和使用。

五、Prometheus Adapter实践案例

在这一部分,我们将通过实际案例展示Prometheus Adapter的应用,帮助用户理解如何在不同场景中配置和使用Prometheus Adapter,以满足复杂的监控需求。以下是三个详细的实践案例。

案例一:Kubernetes集成Prometheus Adapter

背景

在Kubernetes集群中,水平自动扩展(HPA)主要依赖于CPU和内存的使用情况。然而,在实际应用中,许多业务场景需要基于其他指标(如请求数、响应时间等)进行扩展。通过Prometheus Adapter,可以将自定义的Prometheus指标引入到Kubernetes HPA中,实现更精细的扩展策略。

目标

通过Prometheus Adapter,将HTTP请求数这一业务指标引入到Kubernetes HPA中,实现基于请求数的自动扩展。

步骤

  1. 配置Prometheus Adapter

    首先,编写Prometheus Adapter的配置文件,定义从Prometheus中获取HTTP请求数的查询规则。

apiVersion: v1
kind: ConfigMap
metadata:name: custom-metrics-confignamespace: custom-metrics
data:config.yaml: |rules:- seriesQuery: 'http_requests_total{namespace!="",pod!=""}'resources:overrides:namespace: {resource: "namespace"}pod: {resource: "pod"}name:matches: "^(.*)_total"as: "${1}_per_second"metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'

部署配置文件:

kubectl apply -f custom-metrics-config.yaml

  1. 部署Prometheus Adapter

使用Helm或YAML文件部署Prometheus Adapter。

helm install prometheus-adapter prometheus-community/prometheus-adapter --namespace custom-metrics

  1. 验证自定义指标

确认Prometheus Adapter已经成功导入自定义指标:

kubectl get --raw "/apis/custom.metrics.k8s.io/v1beta1" | jq .

  1. 配置HPA

创建一个HPA资源,基于自定义的HTTP请求数指标进行扩展:

apiVersion: autoscaling/v2beta2
kind: HorizontalPodAutoscaler
metadata:name: http-requests-hpanamespace: default
spec:scaleTargetRef:apiVersion: apps/v1kind: Deploymentname: my-deploymentminReplicas: 1maxReplicas: 10metrics:- type: Podspods:metric:name: http_requests_per_secondtarget:type: AverageValueaverageValue: 100

部署HPA配置文件:

kubectl apply -f http-requests-hpa.yaml

效果

通过上述步骤,Kubernetes集群中的应用将基于HTTP请求数的变化进行自动扩展,从而确保在高负载时有足够的资源来处理请求,同时在低负载时释放资源,优化资源利用率。

案例二:结合自定义指标进行业务监控

背景

在实际业务场景中,某电商平台需要监控每秒订单数,以确保在高峰期能够及时扩展资源,避免系统过载。

目标

通过Prometheus Adapter,将订单数这一业务指标引入到Kubernetes HPA中,实现基于订单数的自动扩展。

步骤

  1. 配置Prometheus Adapter

编写Prometheus Adapter的配置文件,定义从Prometheus中获取订单数的查询规则。

apiVersion: v1
kind: ConfigMap
metadata:name: order-metrics-confignamespace: custom-metrics
data:config.yaml: |rules:- seriesQuery: 'orders_total{namespace!="",pod!=""}'resources:overrides:namespace: {resource: "namespace"}pod: {resource: "pod"}name:matches: "^(.*)_total"as: "${1}_per_second"metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'

部署配置文件:

kubectl apply -f order-metrics-config.yaml

  1. 部署Prometheus Adapter

使用Helm或YAML文件部署Prometheus Adapter。

helm install prometheus-adapter prometheus-community/prometheus-adapter --namespace custom-metrics

  1. 验证自定义指标

确认Prometheus Adapter已经成功导入自定义指标:

kubectl get --raw "/apis/custom.metrics.k8s.io/v1beta1" | jq .

  1. 配置HPA

创建一个HPA资源,基于自定义的订单数指标进行扩展:

apiVersion: autoscaling/v2beta2
kind: HorizontalPodAutoscaler
metadata:name: orders-hpanamespace: default
spec:scaleTargetRef:apiVersion: apps/v1kind: Deploymentname: order-serviceminReplicas: 2maxReplicas: 20metrics:- type: Podspods:metric:name: orders_per_secondtarget:type: AverageValueaverageValue: 50

部署HPA配置文件:

kubectl apply -f orders-hpa.yaml

效果

通过上述步骤,电商平台的订单处理服务将基于每秒订单数的变化进行自动扩展,确保在订单高峰期能够及时扩展资源,保证服务的可用性和响应速度。

案例三:多集群环境下的Prometheus Adapter应用

背景

在多集群环境中,需要统一监控和管理不同集群的资源和应用。通过Prometheus Adapter,可以实现跨集群的统一监控和管理。

目标

通过Prometheus Adapter,实现多个Kubernetes集群的统一监控和管理。

步骤

  1. 配置多集群环境

假设已有两个Kubernetes集群:Cluster A和Cluster B,分别部署了Prometheus实例。

  1. 在每个集群中部署Prometheus Adapter

在Cluster A中:

helm install prometheus-adapter prometheus-community/prometheus-adapter --namespace custom-metrics

在Cluster B中:

helm install prometheus-adapter prometheus-community/prometheus-adapter --namespace custom-metrics

  1. 配置跨集群Prometheus查询

在每个集群的Prometheus Adapter配置文件中,分别定义从对方集群获取数据的查询规则。例如,在Cluster A的配置文件中:

prometheus:url: http://prometheus-cluster-b:9090/path: /api/v1/query

在Cluster B的配置文件中:

prometheus:url: http://prometheus-cluster-a:9090/path: /api/v1/query

  1. 定义跨集群自定义指标

在Cluster A的Prometheus Adapter配置文件中,定义从Cluster B获取的指标查询规则:

rules:- seriesQuery: 'cluster_b_http_requests_total{namespace!="",pod!=""}'resources:overrides:namespace: {resource: "namespace"}pod: {resource: "pod"}name:matches: "^(.*)_total"as: "${1}_per_second"metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'

在Cluster B的Prometheus Adapter配置文件中,定义从Cluster A获取的指标查询规则:

rules:- seriesQuery: 'cluster_a_http_requests_total{namespace!="",pod!=""}'resources:overrides:namespace: {resource: "namespace"}pod: {resource: "pod"}name:matches: "^(.*)_total"as: "${1}_per_second"metricsQuery: 'sum(rate(<<.Series>>[5m])) by (<<.GroupBy>>)'

  1. 验证配置

在两个集群中,分别验证Prometheus Adapter是否成功导入跨集群自定义指标:

kubectl get --raw "/apis/custom.metrics.k8s.io/v1beta1" | jq .

效果

通过上述配置,两个集群中的Prometheus Adapter能够互相获取对方的监控数据,实现跨集群的统一监控和管理。在多集群环境中,用户可以通过自定义指标,实现对不同集群资源的灵活管理和自动扩展,提高系统的整体监控效率和响应能力。

文章转载自:techlead_krischang

原文链接:https://www.cnblogs.com/xfuture/p/18231193

体验地址:引迈 - JNPF快速开发平台_低代码开发平台_零代码开发平台_流程设计器_表单引擎_工作流引擎_软件架构

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/344763.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

vuInhub靶场实战系列--prime:2

免责声明 本文档仅供学习和研究使用,请勿使用文中的技术源码用于非法用途,任何人造成的任何负面影响,与本人无关。 目录 免责声明前言一、环境配置1.1 靶场信息1.2 靶场配置 二、信息收集2.1 主机发现2.1.1 netdiscover2.1.2 nmap主机扫描2.1.3 arp-scan主机扫描 2.2 端口扫描…

【面试干货】MySQL 三种锁的级别(表级锁、行级锁和页面锁)

【面试干货】MySQL 三种锁的级别&#xff08;表级锁、行级锁和页面锁&#xff09; 1、表级锁2、行级锁3、页面锁4、总结 &#x1f496;The Begin&#x1f496;点点关注&#xff0c;收藏不迷路&#x1f496; 在 MySQL 数据库中&#xff0c;锁是控制并发访问的重要机制&#xff0…

队列和栈的实现

本节讲解的队列与栈&#xff0c;如果你对之前的线性和链式结构顺利掌握了&#xff0c;那么下边的队列和栈就小菜一碟了。因为我们会用前两节讲到的东西来实现队列和栈。 之所以放到一起讲是因为这两个东西很类似&#xff0c;队列是先进先出结构(FIFO, first in first out)&…

独立游戏之路 -- 获取OAID提升广告收益

Unity 之 获取手机&#xff1a;OAID、IMEI、ClientId、GUID 前言一、Oaid 介绍1.1 Oaid 说明1.2 移动安全联盟(MSA) 二、站在巨人的肩膀上2.1 本文实现参考2.2 本文实现效果2.3 本文相关插件 三、Unity 中获取Oaid3.1 查看实现源码3.2 工程配置3.3 代码实现3.4 场景搭建 四、总…

Linux卸载残留MySQL【带图文命令巨详细】

Linux卸载残留MySQL 1、检查残留mysql2、检查并删除残留mysql依赖3、检查是否自带mariadb库 1、检查残留mysql 如果残留mysql组件&#xff0c;使用命令 rpm -e --nodeps 残留组件名 按顺序进行移除操作 #检查系统是否残留过mysql rpm -qa | grep mysql2、检查并删除残留mysql…

香橙派 Orange AIpro 测评记录视频硬件解码

香橙派 Orange AIpro 测评记录视频硬件解码 香橙派官网&#xff1a;http://www.orangepi.cn/ 收到了一块Orange Pi AIpro开发板&#xff0c;记录一下我的测评~测评简介如下&#xff1a;1.连接网络2.安装流媒体进行硬件解码测试3.安装IO测试 简介 Orange Pi AI Pro 是香橙派联合…

Web安全:Web体系架构存在的安全问题和解决方案

「作者简介」:2022年北京冬奥会网络安全中国代表队,CSDN Top100,就职奇安信多年,以实战工作为基础对安全知识体系进行总结与归纳,著作适用于快速入门的 《网络安全自学教程》,内容涵盖系统安全、信息收集等12个知识域的一百多个知识点,持续更新。 这一章节我们需要了解w…

Git【版本控制和Git的安装介绍】

01 【版本控制和Git的安装介绍】 工程设计领域中&#xff0c;使用“版本控制”管理工程蓝图的设计过程。在 IT 开发中也可以使用版本控制思想管理代码的版本迭代。 1.目的 协同修改&#xff1a;支持在服务器对同一个文件多人协同地修改&#xff1b; 数据备份&#xff1a;同时…

力扣hot100:138. 随机链表的复制(技巧,数据结构)

LeetCode&#xff1a;138. 随机链表的复制 这是一个经典的数据结构题&#xff0c;当做数据结构来学习。 1、哈希映射 需要注意的是&#xff0c;指针也能够当做unordered_map的键值&#xff0c;指针实际上是一个地址值&#xff0c;在unordered_map中&#xff0c;使用指针的实…

M1Pro 使用跳板机

Mac (M1 Pro) 通过Iterm2 使用跳板机 1、由于堡垒机&#xff08;跳板机&#xff09;不能支持mac系统终端工具&#xff0c;只支持xshell等win生态。所以我们需要先安装iterm2 装iterms教程 这里头对rz、sz的配置不详细。我们可以这样配置&#xff1a; where iterm2-send-zmod…

Stable diffusion采样器详解

在我们使用SD web UI的过程中&#xff0c;有很多采样器可以选择&#xff0c;那么什么是采样器&#xff1f;它们是如何工作的&#xff1f;它们之间有什么区别&#xff1f;你应该使用哪一个&#xff1f;这篇文章将会给你想要的答案。 什么是采样&#xff1f; Stable Diffusion模…

Spring Boot通过自定义注解和Redis+Lua脚本实现接口限流

&#x1f604; 19年之后由于某些原因断更了三年&#xff0c;23年重新扬帆起航&#xff0c;推出更多优质博文&#xff0c;希望大家多多支持&#xff5e; &#x1f337; 古之立大事者&#xff0c;不惟有超世之才&#xff0c;亦必有坚忍不拔之志 &#x1f390; 个人CSND主页——Mi…

社区物资交易互助平台的设计

管理员账户功能包括&#xff1a;系统首页&#xff0c;个人中心&#xff0c;管理员管理&#xff0c;基础数据管理&#xff0c;论坛管理&#xff0c;公告信息管理 前台账户功能包括&#xff1a;系统首页&#xff0c;个人中心&#xff0c;论坛&#xff0c;求助留言板&#xff0c;公…

Go微服务: 分布式之通过本地消息实现最终一致性和最大努力通知方案

通过本地消息实现最终一致性 1 &#xff09;概述 我们的业务场景是可以允许我们一段时间有不一致的消息的状态的&#xff0c;并没有说必须特别高的这个消息的一致性比如说在TCC这个架构中&#xff0c;如果采用了消息的最终一致性&#xff0c;整体架构设计要轻松好多即便我们库…

例54:Draw使用

建立一个控制台工程&#xff0c;输入代码&#xff1a; Screen 13 移动到&#xff08;50,50&#xff09;而不绘图 Draw "BM 50,50" B:移动但不绘制,M:移动到指定位置 将绘图颜色设置为2&#xff08;绿色&#xff09; Draw "C2" C将颜色改为n …

酒店旅游API服务汇总

各大旅游平台常用API服务汇总&#xff1a; 实时房源服务【Airbnb】飞猪旅行开放服务途牛旅行开放平台API华为云数字差旅【差旅管理】动态信息接口【美团酒店】旅行商城商家管理API【马蜂窝】交易流程接口【美团酒店】电子导游【携程旅行】

如何提高网站收录?

GSI服务就是专门干这个的&#xff0c;这个服务用的是光算科技自己研发的GPC爬虫池系统。这个系统通过建立一个庞大的站群和复杂的链接结构&#xff0c;来吸引谷歌的爬虫。这样一来&#xff0c;你的网站就能更频繁地被谷歌的爬虫访问&#xff0c;从而提高被收录的机会。 说到效…

CGS与MGS的矩阵正交化-C语言实现

格拉姆-施密特正交化和改进的格拉姆-施密特正交化 格拉姆-施密特正交化CGS 数学公式 代码实现&#xff1a; 过程版 矩阵运算实现的难点在于每次运算都是一个向量&#xff0c;需要for循环进行&#xff0c;会带来运算时在代码中的复杂&#xff0c;进而难以理解代码的过程 Q矩阵…

python爬虫入门教程(一)

上一篇文章讲了爬虫的工作原理&#xff0c;这篇文章以后就要重点开始讲编程序了。 简单爬虫的的两个步骤&#xff1a; 使用HTTPRequest工具模拟HTTP请求&#xff0c;接收到返回的文本。用于请求的包有: requests、urllib等。 对接收的文本进行筛选,获取想要的内容。用户筛选文…

【C++题解】1265. 爱因斯坦的数学题

问题&#xff1a;1265. 爱因斯坦的数学题 类型&#xff1a;简单循环 题目描述&#xff1a; 爱因斯坦出了一道这样的数学题&#xff1a;有一条长阶梯&#xff0c;若每步跨 2 阶&#xff0c;则最最后剩一阶&#xff0c;若每步跨 3 阶&#xff0c;则最后剩 2 阶&#xff0c;若每…