GrayLog踩坑历险记

背景

GrayLog作为ELK的替代产品,是新生代的日志采集框架。在一个采集节点日志的需求中,因为节点很多,产生的日志也很多,因此尝试了使用GrayLog进行日志的采集。下面记录一下使用GrayLog中遇到的坑和解决方案。

一、部署与启动

采用Docker方式部署。需要部署三个容器:

graylog: 采集日志的服务,应用方对接graylog服务,进行日志的采集。

elasticsearch: graylog采集的日志最终存储到elasticsearch中。

mongodb: 存储graylog服务的元数据。

项目中使用的graylog版本是5.2.2,es版本是7.7.0,mongodb是最新版本。

Docker部署官方文档地址

启动mongo容器命令:

sudo docker run -d \
--name mongo \
--network demo\
-v /data/llmservice/mongodb:/data/db \
-p 27017:27017 \
mongo

启动es容器命令:

docker run --name elasticsearch --restart=always  --privileged=true  -d -e ES_JAVA_OPTS="-Xms512m -Xmx512m" -e "discovery.type=single-node" -p 9200:9200 -p 9300:9300 elasticsearch:7.7.0

启动graylog服务命令:
首先,生成加密密码,以密码为admin为例:

echo -n admin | shasum -a 256

然后,利用生成的密码启动容器:

sudo docker run -d   --privileged=true \
--link mongo --link elasticsearch \
--name graylog \
--network demo\
-v /data/llmservice/graylog/log/:/usr/share/graylog/data/log \
-v /data/llmservice/graylog/journal/:/usr/share/graylog/data/journal \
-v /data/llmservice/graylog/contentpacks/:/usr/share/graylog/data/contentpacks \
-v /data/llmservice/graylog/plugin/:/usr/share/graylog/data/plugin \
-p 9009:9000 \
-p 12201:12201/udp \
-p 12201:12201 \
-p 1514:1514 \
-p 1514:1514/udp \
-e GRAYLOG_PASSWORD_SECRET=demo@qq.com.cn \
-e GRAYLOG_ROOT_PASSWORD_SHA2=7cff97eaf95509b6fe517568dbcd58e24190e8a34b8910907b54df0b957859bc \
-e GRAYLOG_HTTP_EXTERNAL_URI="http://192.168.0.101:9009/" \
-e GRAYLOG_ELASTICSEARCH_HOSTS="http://192.168.0.101:9200" \
-e GRAYLOG_ROOT_TIMEZONE="Asia/Shanghai" \
graylog/graylog:5.2.2

其中,journal文件夹挂载映射时,启动容器容易出现没有write权限的异常。解决方式是将宿主机上先创建journal文件夹,并且给这个文件夹chmod授777或775的权限即可。

graylog的9000端口是web界面的访问端口,也是API调用的接口。

12201和1514是Input的监听端口,默认是监听tcp协议,/udp表示同时监听udp协议。

GRAYLOG_ROOT_PASSWORD_SHA2使用第一步生成的加密密码,在登录web界面或调用API时,需要用到密码(解密的密码),用户名默认是admin。

如果想改用户名,需要在graylog容器内容的/usr/share/graylog/data/config/graylog.conf中修改root_username用户。此用户名和密码用于web界面的登录和API接口的调用auth认证。

GRAYLOG_HTTP_EXTERNAL_URI配置web界面访问的url地址。一般就是服务器ip和容器9000映射的端口。

GRAYLOG_ELASTICSEARCH_HOSTS配置es的地址。

GRAYLOG_ROOT_TIMEZONE配置时区,不配置时区,graylog默认使用美国时区,与国内时间对不上。

重点:
上面的-e后面的系统配置,可以在graylog.conf配置文件中查看,里面的配置项,都可以在启动命令里加-e,然后加GRAYLOG_前缀,然后所有字母都大写,就可以在启动命令里设置了。
GrayLog参数配置官方地址

二、创建Inputs

访问web管理界面,登录,选择System–>Inputs,创建Inputs监听。
在这里插入图片描述
在这里插入图片描述
填写Title,其他默认即可。这里选GELF UDP协议,选择原因来自官网:

What is the best way to integrate my applications to Graylog?
We recommend that you use GELF. It’s easy for your application developers and eliminates the need to store the messages locally. Also, GELF can just send what app person wants so you don’t have to build extractors or do any extra processing in Graylog.

将我的应用程序集成到Graylog的最佳方式是什么?

我们建议您使用GELF。这对应用程序开发人员来说很容易,并且无需在本地存储消息。此外,GELF可以发送应用程序用户想要的内容,这样您就不必在Graylog中构建提取器或进行任何额外的处理。
出处地址

三、SpringBoot项目集成GrayLog,采集特定日志

网上讲SpringBoot集成GrayLog的博客,大都是demo级别的集成,只是简单的将log4j记录的日志推送到了GrayLog中。但是在实际项目中,不可能把所有的log.info的信息都采集到GrayLog中,而是将特定的日志采集到GrayLog中。需要做以下操作:

3.1 依赖gelf包
		<dependency><groupId>de.siegmar</groupId><artifactId>logback-gelf</artifactId><version>4.0.0</version></dependency>
3.2 logback-spring.xml里配置gelf Appender
<configuration><conversionRule conversionWord="clr" converterClass="org.springframework.boot.logging.logback.ColorConverter" /><conversionRule conversionWord="wex" converterClass="org.springframework.boot.logging.logback.WhitespaceThrowableProxyConverter" /><conversionRule conversionWord="wEx" converterClass="org.springframework.boot.logging.logback.ExtendedWhitespaceThrowableProxyConverter" /><property name="CONSOLE_LOG_PATTERN" value="${CONSOLE_LOG_PATTERN:-%clr(%d{yyyy-MM-dd HH:mm:ss.SSS}){faint} %clr(${LOG_LEVEL_PATTERN:-%5p}) %clr(${PID:- }){magenta} %clr(---){faint} %clr([%15.15t]){faint} %clr(%-40.40logger{39}){cyan} %clr(:){faint} %m%n${LOG_EXCEPTION_CONVERSION_WORD:-%wEx}}"/><appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender"><encoder><pattern>${CONSOLE_LOG_PATTERN}</pattern><charset>UTF-8</charset></encoder></appender><appender name="GELF" class="de.siegmar.logbackgelf.GelfUdpAppender"><filter class = "com.demo.engine.logger.EngineFilter"/><graylogHost>graylog服务ip</graylogHost><graylogPort>12201</graylogPort><maxChunkSize>65467</maxChunkSize><encoder class="com.demo.engine.logger.EngineEncoder"><!--配置应用名称(服务名称),通过staticField标签可以自定义一些固定的日志字段--><!--<staticField>app_name:${app_name}</staticField><staticField>desc:${desc}</staticField>--></encoder></appender><!-- 控制台输出日志级别 --><root level="info"><appender-ref ref="GELF" /><appender-ref ref="STDOUT" /></root>
</configuration>

配置到此,项目中的log.info等日志就可以采集到GrayLog服务中了。只需要在logback-spring.xml里配置对GrayLog服务的ip和端口,就可以无缝使用日志采集框架采集日志了。

3.3 过滤日志,采集特定日志

定义日志框架的过滤器,例如只采集loggername为demo记录的日志。
先定义日志过滤器:

import ch.qos.logback.classic.spi.ILoggingEvent;
import ch.qos.logback.core.filter.Filter;
import ch.qos.logback.core.spi.FilterReply;
public class EngineFilter extends Filter<ILoggingEvent> {@Overridepublic FilterReply decide(ILoggingEvent iLoggingEvent) {String loggerName = iLoggingEvent.getLoggerName();if(loggerName.equals("demo")){//loggerName是demo则采集,否则不采集return FilterReply.ACCEPT;}else {return FilterReply.DENY;}}
}

在logback-spring.xml里配置过滤器:
在这里插入图片描述

最后,在需要GrayLog采集日志的地方,定义名为demo的日志采集器:

    private static final Logger log = LoggerFactory.getLogger("demo");

使用此对象log.info的日志,会采集到GrayLog中。而定义的其他采集器的log.info则不会采集到GrayLog中。

四、自定义日志字段存入GrayLog

通过log.info()方法存入GrayLog中的日志,只能是一个字符串,因为log.info()的参数是String类型。在实际项目中,往往要对日志通过某个字段进行检索或统计,只存一个字符串无法满足这样的要求。

在logback-spring.xml中,可以配置来定义一些静态的字段和固定的值,但是无法满足动态往GrayLog中添加字段和动态设置值的要求。如何满足这个需求成了能否使用GrayLog的关键。

项目中通过引入gelf包来采集日志到GrayLog中,翻看jar包的源码,找到了jar包发送日志到GrayLog的核心代码GelfEncoder的encode()方法,如下:

@Overridepublic byte[] encode(final ILoggingEvent event) {final Map<String, Object> additionalFields = new HashMap<>(staticFields);addFieldMapperData(event, additionalFields, builtInFieldMappers);addFieldMapperData(event, additionalFields, fieldMappers);final GelfMessage gelfMessage = new GelfMessage(originHost,shortPatternLayout.doLayout(event),fullPatternLayout.doLayout(event),event.getTimeStamp(),LevelToSyslogSeverity.convert(event),additionalFields);final byte[] json = gelfMessageToJson(gelfMessage);if (appendNewline) {final byte[] sep = System.lineSeparator().getBytes(StandardCharsets.UTF_8);final ByteBuffer bb = ByteBuffer.allocate(json.length + sep.length);bb.put(json);for (final byte b : sep) {bb.put(b);}bb.flip();return bb.array();}return json;}

从源码可以看出,源码中有添加字段的豁口:

addFieldMapperData(event, additionalFields, builtInFieldMappers);
addFieldMapperData(event, additionalFields, fieldMappers);

查看addFieldMapperData方法源码:

private void addFieldMapperData(final ILoggingEvent event, final Map<String, Object> additionalFields,final List<GelfFieldMapper<?>> mappers) {for (final GelfFieldMapper<?> fieldMapper : mappers) {try {fieldMapper.mapField(event, (key, value) -> {try {addField(additionalFields, key, value);} catch (final IllegalArgumentException e) {addWarn("Could not add field " + key, e);}});} catch (final Exception e) {addError("Exception in field mapper", e);}}}

可以看到其遍历了mappers参数,然后调用了addField()方法,来动态添加字段。
所以现在的问题转换成如何往mappers里添加字段。
mappers是一个GelfFieldMapper对象的集合。查看gelf包的官方文档,GelfFieldMapper类作者只简单写了几句,并没有提及如何初始化这个类的集合。所以只能自己初始化这个类的集合。
自己初始化的方式就是实现GelfEncoder类,重写encode方法,在encode方法中自定义GelfEncoder类,加入到集合中。代码如下:

public class EngineEncoder extends GelfEncoder {@Overridepublic byte[] encode(ILoggingEvent event) {super.addFieldMapper(new EngineFiledMapper());return super.encode(event);}
}

可以看到,重写的encode方法,调用了父类的addFieldMapper方法,往fieldMappers属性中手动添加了一个GelfEncoder对象,剩下的逻辑还是父类的encode方法逻辑。

GelfEncoder是一个接口,需要写其实现类,在实现类中,定义我们要动态添加的字段和值,如下:

public class EngineFiledMapper implements GelfFieldMapper {@Overridepublic void mapField(ILoggingEvent event, BiConsumer valueHandler) {if(event.getLoggerName().equals("demo")){String message = event.getMessage();JSONObject jsonObject = JSONObject.parseObject(message);Set<String> strings = jsonObject.keySet();for(String key:strings){valueHandler.accept(key,jsonObject.get(key));}}}
}

上述代码的含义是,在log.info()中,记录一个json格式的字符串,在GelfFieldMapper 中,解析json对象的key和value,然后加入到valueHandler中。

最后,在logback-spring.xml中配置我们定义的encoder类:
在这里插入图片描述

所以,在采集特定日志时,log.info中记录一个特定的json对象,json对象里包含我们的自定义字段,然后在GelfFieldMapper 的实现类中,解析这个json,动态添加字段。

最后,在GrayLog中,定义的json字符串,被放入了message字段,json里定义的字段,成了单独的字段存在GrayLog中,如下图:
在这里插入图片描述

五、GrayLog大字段日志无法存储问题解决

在项目中发现,存储日志的某个字段值过大时,无法存入GrayLog中。国内帖子并没有此问题的解决方案,通过参考stackoverflow的相关帖子,找到了解决思路,下面记录解决过程。
大字段没有存进去的原因是graylog根据字段往es建立索引时,字段的类型是es自动设定的,graylog中并没有给用户提供设置字段在es中索引类型的接口。这就造成了es里把某些字段设置成了keyword类型,当这个字段存入过大的数据时,超出了keyword类型的限制,就无法存入es里了,GrayLog采集也就失败了。
解决方案是我们手动初始化es中相关字段的索引类型,初始化好之后,再让graylog往es里采集日志。操作步骤是:
查看es中graylog的相关索引:

curl -X GET "localhost:9200/_cat/indices"

graylog相关的索引为:
在这里插入图片描述
此时es里的索引字段已经确定类型了,es无法直接修改索引字段的类型,所以,这里先停止graylog服务,把这些索引从es里删除:

curl -X DELETE 'http://localhost:9200/graylog_0'
curl -X DELETE 'http://localhost:9200/gl-events_0'
curl -X DELETE 'http://localhost:9200/gl-system-events_0'

然后,再启动graylog服务,又会自动创建上面三个索引。(**注意:**此时不要让graylog采集日志,否则es又会自动生成索引字段的类型)

然后手动指定es索引自定义字段的类型,graylog会默认生成一些索引的字段,如下:

curl -X GET    "localhost:9200/graylog_0/_mapping"

输出:

{"graylog_0": {"mappings": {"dynamic_templates": [{"internal_fields": {"match": "gl2_*","match_mapping_type": "string","mapping": {"type": "keyword"}}},{"store_generic": {"match_mapping_type": "string","mapping": {"type": "keyword"}}}],"properties": {"full_message": {"type": "text","analyzer": "standard"},"gl2_accounted_message_size": {"type": "long"},"gl2_message_id": {"type": "keyword"},"gl2_processing_timestamp": {"type": "date","format": "uuuu-MM-dd HH:mm:ss.SSS"},"gl2_receive_timestamp": {"type": "date","format": "uuuu-MM-dd HH:mm:ss.SSS"},"message": {"type": "text","analyzer": "standard"},"source": {"type": "text","analyzer": "analyzer_keyword","fielddata": true},"streams": {"type": "keyword"},"timestamp": {"type": "date","format": "uuuu-MM-dd HH:mm:ss.SSS"}}}}
}

这些字段我们无需关注,我们只手动定义自定义字段的类型,命令如下:

curl -X PUT -H  "Content-Type: application/json" -d '{"properties": {"input": {"type": "text","analyzer": "standard"},"startTime": {"type": "keyword"}}
}' "localhost:9200/graylog_0/_mapping"

我们自定义的input字段,可能存大数据,所以手动指定成text类型。如果让es自动生成,会生成keyword类型。

手动设置好之后,就可以让GrayLog正常采集日志了。

注意:

  1. 在采集特大日志时,比如图片的base64转码,GrayLog还是无法采集,但是手动往es对应的索引里添加数据是能添加的,这个猜测是GrayLog服务内部处理特大日志有问题导致的,只能通过升级GrayLog版本让其自身解决。
  2. 在手动设置es的字段类型时,不能设置Object或嵌套类型,即使我们的自定义字段是map类型或者复杂类型,es里也无法设置Object类型。原因是graylog往es里存数据时,会把值改为String类型。所以即使我们程序中定义的一个字段为map类型,graylog也会将其转成String类型,这也是graylog设计缺陷的一方面。

六、GrayLog的查询和统计接口

项目中用到了日志的查询和统计接口,这里记录一下使用方式。
官方参考地址

定义工具类如下:

public class QueryLogUtils {private static final String SEARCH_MESSAGE = "/api/search/messages";private static final String SEARCH_AGGREGATE = "/api/search/aggregate";//查询日志public static GrayLogQueryResponse queryLog(String url,String username,String password,GrayLogQueryParam grayLogQueryParam){RestTemplate restTemplate = new RestTemplate();HttpHeaders headers = new HttpHeaders();headers.add("X-Requested-By","cli");headers.add("Accept","application/json");headers.add("Content-Type","application/json");headers.setBasicAuth(username, password);HttpEntity<GrayLogQueryParam> requestEntity = new HttpEntity<>(grayLogQueryParam,headers);restTemplate.getInterceptors().add(new BasicAuthenticationInterceptor(username, password));ResponseEntity<Map> response = restTemplate.exchange(url+SEARCH_MESSAGE, HttpMethod.POST, requestEntity, Map.class);Map responseBody = response.getBody();GrayLogQueryResponse grayLogQueryResponse = JSONObject.parseObject(JSON.toJSONString(responseBody), GrayLogQueryResponse.class);return grayLogQueryResponse;}//统计日志public static GrayLogQueryResponse queryAggregate(String url,String username,String password,GrayLogAggregateParam grayLogAggregateParam){RestTemplate restTemplate = new RestTemplate();HttpHeaders headers = new HttpHeaders();headers.add("X-Requested-By","cli");headers.add("Accept","application/json");headers.add("Content-Type","application/json");headers.setBasicAuth(username, password);HttpEntity<GrayLogAggregateParam> requestEntity = new HttpEntity<>(grayLogAggregateParam,headers);restTemplate.getInterceptors().add(new BasicAuthenticationInterceptor(username, password));ResponseEntity<Map> response = restTemplate.exchange(url+SEARCH_AGGREGATE, HttpMethod.POST, requestEntity, Map.class);Map responseBody = response.getBody();GrayLogQueryResponse grayLogQueryResponse = JSONObject.parseObject(JSON.toJSONString(responseBody), GrayLogQueryResponse.class);return grayLogQueryResponse;}}

封装查询参数实体类:

/*** *  参数样例:*  {*     "query": "uid:f2f2d454ce99d3c0a575d78088e7753f",*     "fields": [*         "input",*         "startTime"*     ],*     "from": 2,*     "size": 15,*     "timerange": {*         "type": "keyword",*         "keyword": "last 1000 minutes"*     },*     "sort": "startTime",*     "sort_order": "asc"* }* @date 2024/1/39:44*/
@Data
public class GrayLogQueryParam {private String query; //查询条件private List<String> fields; //查询字段private Integer from;//从第几条开始private Integer size;//到第几条结束private Map<String,String> timerange; //时间范围条件private String sort; //排序字段private String sort_order; //排序类型public static class Builder {private String query;private List<String> fields=new ArrayList<>();private Integer from;private Integer size;private Map<String, String> timerange;private String sort;private String sort_order;public Builder query(String query) {this.query = query;return this;}public Builder addField(String field) {this.fields.add(field);return this;}public Builder from(Integer from) {this.from = from;return this;}public Builder size(Integer size) {this.size = size;return this;}public Builder timerange(String key,String value) {if(this.timerange==null){this.timerange = new HashMap<>();}this.timerange.put(key,value);return this;}public Builder sort(String sort) {this.sort = sort;return this;}public Builder sort_order(String sort_order) {this.sort_order = sort_order;return this;}public GrayLogQueryParam build() {return new GrayLogQueryParam(this);}}public static Builder builder() {return new Builder();}private GrayLogQueryParam(Builder builder) {this.query = builder.query;this.fields = builder.fields;this.from = builder.from;this.size = builder.size;this.timerange = builder.timerange;this.sort = builder.sort;this.sort_order = builder.sort_order;}
}

封装统计参数实体类(按某几个字段进行count统计):

/*** 官方文档参考地址: https://go2docs.graylog.org/5-2/making_sense_of_your_log_data/simple_search_scripting_api.htm?tocpath=Searching%20Your%20Log%20Data%7C_____6*  参数样例:*  {*     "query": "sceneId:1",*     "group_by": [*         {*             "field": "id"*         },*         {*             "field": "xxx"*         },*         {*             "field": "xxx"*         }*     ],*     "metrics": [*         {*             "function": "count",*             "field": "id"*         }*     ]* }*/
@Data
public class GrayLogAggregateParam {private String query; //查询条件private List<Map> group_by; //分组统计字段private Map<String,String> timerange; //时间范围条件private List<Map> metrics; //分组函数,average, count, latest, max, min, percentile, stdDev, sum, sumOfSquares, variance.public static class Builder {private String query;private List<Map> group_by=new ArrayList<>();private Map<String, String> timerange;private List<Map> metrics = new ArrayList<>();public Builder query(String query) {this.query = query;return this;}public Builder addGroupBy(String field) {Map<String,String> map = new HashMap<>();map.put("field",field);//定义统计条数map.put("limit","10000");this.group_by.add(map);return this;}public Builder timerange(String key,String value) {if(this.timerange==null){this.timerange = new HashMap<>();}this.timerange.put(key,value);return this;}/**** @param function 函数,avg,count,sum等* @param field 函数统计的字段* @return*/public Builder addMetrics(String function,String field) {Map<String,String> map = new HashMap<>();map.put("function",function);map.put("field",field);this.metrics.add(map);return this;}public GrayLogAggregateParam build() {return new GrayLogAggregateParam(this);}}public static Builder builder() {return new Builder();}private GrayLogAggregateParam(Builder builder) {this.query = builder.query;this.group_by = builder.group_by;this.timerange = builder.timerange;this.metrics = builder.metrics;}
}

封装GrayLog API返回值实体类:

/*** 日志查询接口响应格式如下;* {*     "schema": [*         {*             "column_type": "field",*             "type": "string",*             "field": "uid",*             "name": "field: uid"*         },*         {*             "column_type": "field",*             "type": "string",*             "field": "input",*             "name": "field: input"*         },*         {*             "column_type": "field",*             "type": "string",*             "field": "startTime",*             "name": "field: startTime"*         }*     ],*     "datarows": [*         [*             "f2f2d454ce99d3c0a575d78088e7753f",*             "{\"nextNode\":\"2\"}",*             "2024-01-02 18:15:06"*         ]*     ],*     "metadata": {*         "effective_timerange": {*             "from": "2023-12-30T15:57:02.330Z",*             "to": "2024-01-03T03:17:02.331Z",*             "type": "absolute"*         }*     }* }*** 日志统计接口响应如下:* {*     "schema": [*         {*             "column_type": "grouping",*             "type": "string",*             "field": "id",*             "name": "grouping: id"*         },*         {*             "column_type": "grouping",*             "type": "string",*             "field": "xxx",*             "name": "grouping: xxx"*         },*         {*             "column_type": "grouping",*             "type": "string",*             "field": "xxx",*             "name": "grouping: xxx"*         },*         {*             "column_type": "metric",*             "type": "numeric",*             "function": "count",*             "field": "id",*             "name": "metric: count(id)"*         }*     ],*     "datarows": [*         [*             "1",*             "B_1",*             "2",*             11*         ],*         [*             "2",*             "B_B_1",*             "33",*             5*         ],*         [*             "2",*             "B_B_13",*             "17",*             3*         ],*         [*             "2",*             "B_B_15",*             "8",*             3*         ],*         [*             "17",*             "xxx",*             "19",*             3*         ],*         [*             "8",*             "xxx",*             "-1",*             3*         ],*         [*             "19",*             "xxx",*             "21",*             2*         ],*         [*             "21",*             "xxx",*             "22",*             2*         ],*         [*             "22",*             "xxx",*             "24",*             2*         ],*         [*             "24",*             "xxx",*             "26",*             2*         ]*     ],*     "metadata": {*         "effective_timerange": {*             "from": "2024-01-02T10:57:35.975Z",*             "to": "2024-01-03T10:57:35.975Z",*             "type": "absolute"*         }*     }* }** @date 2024/1/311:10*/
@Data
public class GrayLogQueryResponse {private List<Schema> schema;private List<List<Object>> datarows;//解析schema和datarows,返回map对象的日志节点数据public List logList(){List list = new ArrayList<>();List<Schema> schemaList = this.schema;List<List<Object>> datarows = this.datarows;for(List<Object> row:datarows){Map<String,Object> map = new HashMap<>();for(int i=0;i<row.size();i++){Schema schema = schemaList.get(i);String field = schema.getField();map.put(field,row.get(i));}String input = map.get("input").toString();if(!input.equals("-")){//-代表没有值inputMap = JSON.parseObject(input, Map.class);}list.add(inputMap)return list;}//获取日志统计对象列表public List<ComponentNodeAggregate> aggregateList(){List<ComponentNodeAggregate> list = new ArrayList<>();List<Schema> schemaList = this.schema;List<List<Object>> datarows = this.datarows;for(List<Object> row:datarows){Map<String,Object> map = new HashMap<>();for(int i=0;i<row.size();i++){Schema schema = schemaList.get(i);String field = schema.getField();String column_type = schema.getColumn_type();if("metric".equals(column_type)){//统计字段,填充count属性map.put("count",row.get(i));}else{map.put(field,row.get(i));}}ComponentNodeAggregate componentNodeAggregate = JSON.parseObject(JSON.toJSONString(map), ComponentNodeAggregate.class);list.add(componentNodeAggregate);}return list;}@Datapublic class Schema{private String column_type;private String type;private String field;private String name;}}

封装统计返回值对象:

@Data
public class ComponentNodeAggregate {private String id;private String xxx;private String xxx;private Integer count;}

注意: 在查询graylog时,遵循es的查询语法,具体可参考:官网地址

最后

logback-gelf的官网地址

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/250628.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Mysql连接编译踩坑问题

复习下mysql基本命令 登录mysql mysql #没密码登录 mysql -u root -p #以用户名root 需要交互输入密码方式登录显示所有数据库 SHOW DATABASES&#xff1b; 使用某个数据库 use database_name; 查看当前数据库某一张表的表结构 DESCRIBE table_name; 解决一个mysql 用…

汽车软件开发模式的5个特点

汽车软件开发属于较为复杂的系统工程&#xff0c;经常让来自不同知识背景的工程师在观点交锋时出现分歧。在解决复杂性和对齐讨论基准时&#xff0c;可以通过勾勒出讨论对象最关键的几个特征来树立典型概念。本文旨在通过5个典型特点的抽取&#xff0c;来勾勒出汽车软件开发模式…

通过 ChatGPT 的 Function Call 查询数据库

用 Function Calling 的方式实现手机流量包智能客服的例子。 def get_sql_completion(messages, model"gpt-3.5-turbo"):response client.chat.completions.create(modelmodel,messagesmessages,temperature0,tools[{ # 摘自 OpenAI 官方示例 https://github.com/…

一张证书如何改变职业生涯?程序员必看!

随着信息产业的迅猛发展&#xff0c;对行业人才的需求也在逐年扩大。据统计&#xff0c;未来五年&#xff0c;我国对信息化人才的总需求量将高达1500万至2000万人。以软件开发为例&#xff0c;我国对软件人才的需求正以每年20%的速度递增&#xff0c;每年新增的需求接近百万。计…

第五讲:函数与类库

第五讲&#xff1a;函数与类库 第五讲&#xff1a;函数与类库函数定义实参变量的作用域返回值代码复用 类创建和使用类继承导入类 模块与库概念标准库第三方库 第五讲&#xff1a;函数与类库 函数 定义 函数就是代码块&#xff0c;只不过我们给这个代码块特地进行命名&#…

好的问卷设计标准:确保数据质量与准确性的关键要素

问卷的主要由三个部分组成&#xff1a;问卷说明、问卷主题、问卷结束。而这三个部分又包含了很多因素&#xff0c;比如问卷主题、问卷标题、问卷题目、问卷调查对象等。制作问卷不仅仅是简单的问题罗列&#xff0c;然后进行发放。不同质量的调查问卷会反馈出不一样的效果&#…

网络安全全栈培训笔记(60-服务攻防-中间件安全CVE复现WeblogicJenkinsGlassFish)

第60天 服务攻防-中间件安全&CVE复现&Weblogic&Jenkins&GlassFish 知识点: 中间件及框架列表: lIS,Apache,Nginx,Tomcat,Docker,Weblogic,JBoos,WebSphere,Jenkins, GlassFish,Jira,Struts2,Laravel,Solr,Shiro,Thinkphp,Sprng,Flask,jQuery 1、中间件-Web…

【面试深度解析】掌上先机后端面试(Java基础能力夯实)

欢迎关注公众号&#xff08;通过文章导读关注&#xff1a;【11来了】&#xff09;&#xff0c;及时收到 AI 前沿项目工具及新技术的推送&#xff01; 在我后台回复 「资料」 可领取编程高频电子书&#xff01; 在我后台回复「面试」可领取硬核面试笔记&#xff01; 文章导读地址…

01-Java工厂模式 ( Factory Pattern )

工厂模式 Factory Pattern 摘要实现范例 工厂模式&#xff08;Factory Pattern&#xff09;提供了一种创建对象的最佳方式 工厂模式在创建对象时不会对客户端暴露创建逻辑&#xff0c;并且是通过使用一个共同的接口来指向新创建的对象 工厂模式属于创建型模式 摘要 1. 意图 …

AJAX的原理(重点)

◆ XMLHttpRequest 什么是XMLHttpRequest&#xff1f; 定义&#xff1a; 关系&#xff1a;axios 内部采用 XMLHttpRequest 与服务器交互 注意&#xff1a;直白点说就是axios内部就是封装了XMLHttpRequest这个对象来实现发送异步请求的 使用 XMLHttpRequest 步骤&#xff1a…

【lesson2】定长内存池的实现

文章目录 介绍定长内存池的设计定长内存池的实现需要成员变量需要的成员函数定长内存池结构定长内存池Delete&#xff08;释放空间&#xff09;的实现定长内存池New&#xff08;申请空间&#xff09;的实现 定长内存池的实现完整版 介绍 作为程序员(C/C)我们知道申请内存使用的…

鸿蒙(HarmonyOS)项目方舟框架(ArkUI)之Gauge组件

鸿蒙&#xff08;HarmonyOS&#xff09;项目方舟框架&#xff08;ArkUI&#xff09;之Gauge组件 一、操作环境 操作系统: Windows 10 专业版、IDE:DevEco Studio 3.1、SDK:HarmonyOS 3.1 二、Gauge组件 数据量规图表组件&#xff0c;用于将数据展示为环形图表。 子组件 无…

【机器学习】科学库使用手册第2篇:机器学习任务和工作流程(已分享,附代码)

本系列文章md笔记&#xff08;已分享&#xff09;主要讨论人工智能相关知识。主要内容包括&#xff0c;了解机器学习定义以及应用场景&#xff0c;掌握机器学习基础环境的安装和使用&#xff0c;掌握利用常用的科学计算库对数据进行展示、分析&#xff0c;学会使用jupyter note…

LabVIEW叶片厚度远程监控

LabVIEW叶片厚度远程监控 随着网络技术的高速发展&#xff0c;远程监控广泛应用在各个领域。本文介绍了一种基于LabVIEW的植物叶片厚度远程监控系统&#xff0c;旨在实现对植物生长状况的精准监测和分析。 该系统利用LabVIEW软件开发工具&#xff0c;通过TCP网络协议实现数据…

[嵌入式系统-6]:龙芯1B 开发学习套件 -3-软件层次架构

目录 一、龙芯软件架构 1.1 通用软件架构 1.2 龙芯软件架构 1.3 龙芯各种应用程序 1.4 龙芯SOC芯片硬件&#xff1a;龙芯1B 1.5 PMON软件 1.6 龙芯IDE管辖的软件 &#xff08;1&#xff09;CPU Core驱动程序 &#xff08;2&#xff09;SOC芯片外设驱动程序 &#xff…

近期CCF系列会议截稿时间

专属领域会议订阅 关注{晓理紫}&#xff0c;每日更新会议信息&#xff0c;如感兴趣&#xff0c;请转发给有需要的同学&#xff0c;谢谢支持 如果你感觉对你有所帮助&#xff0c;请关注我&#xff0c;每日准时为你推送最新会议信息。 CSFW (CCF B) IEEE Computer Security Foun…

opencv-python计算视频光流

光流基本概念 光流表示的是相邻两帧图像中每个像素的运动速度和运动方向。具体&#xff1a;光流是空间运动物体在观察成像平面上的像素运动的瞬时速度&#xff0c;是利用图像序列中像素在时间域上的变化以及相邻帧之间的相关性来找到上一帧跟当前帧之间存在的对应关系&#xf…

RISC-V指令格式

RISC-V指令格式 1 RISC-V指令集命名规范2 RISC-V指令集组成2.1 基础整数指令集2.2 扩展指令集 3 RISC-V指令格式3.1 指令表述3.2 指令格式 本文属于《 RISC-V指令集基础系列教程》之一&#xff0c;欢迎查看其它文章。 1 RISC-V指令集命名规范 前面提到过RV32I&#xff0c;这是…

谷粒商城【成神路】-【4】——分类维护

目录 1.删除功能的实现 2.新增功能的实现 3.修改功能的实现 4.拖拽功能 1.删除功能的实现 1.1逻辑删除 逻辑删除&#xff1a;不删除数据库中真实的数据&#xff0c;用指定字段&#xff0c;显示的表示是否删除 1.在application.yml中加入配置 mybatis-plus:global-config:…

基于springboot校园二手书交易管理系统源码和论文

在Internet高速发展的今天&#xff0c;我们生活的各个领域都涉及到计算机的应用&#xff0c;其中包括乐校园二手书交易管理系统的网络应用&#xff0c;在外国二手书交易管理系统已经是很普遍的方式&#xff0c;不过国内的管理系统可能还处于起步阶段。乐校园二手书交易管理系统…