【Python】 基于Python实现日志聚合与分析工具:利用Logstash与Fluentd构建高效分布式日志系统

《Python OpenCV从菜鸟到高手》带你进入图像处理与计算机视觉的大门!

解锁Python编程的无限可能:《奇妙的Python》带你漫游代码世界

在分布式系统中,日志数据的生成速度和数量呈指数级增长,传统的日志管理方式已无法满足现代企业对实时性、可扩展性和高效性的需求。本文深入探讨了如何使用Python结合Logstash和Fluentd等开源工具,构建一个高效的日志聚合与分析系统。通过详细的代码示例和中文注释,本文涵盖了日志收集、传输、存储、分析和可视化的全流程。我们将介绍Logstash和Fluentd的基本原理与配置方法,展示如何利用Python脚本实现日志的自定义处理与分析,并探讨在分布式环境下的优化策略。最后,本文还提供了一个完整的示例项目,帮助读者快速上手并应用于实际生产环境中。通过本文的学习,读者将能够掌握构建高效、可扩展日志管理系统的关键技术,为提升系统运维效率和业务决策能力提供有力支持。

目录

  1. 引言
  2. 日志聚合与分析概述
  3. 工具介绍:Logstash与Fluentd
  4. 环境搭建与配置
    • 4.1 安装与配置Logstash
    • 4.2 安装与配置Fluentd
  5. 使用Python进行日志收集
    • 5.1 Python日志模块简介
    • 5.2 自定义日志收集脚本
  6. 使用Python与Logstash集成
    • 6.1 Logstash输入插件配置
    • 6.2 Logstash过滤插件配置
    • 6.3 Logstash输出插件配置
    • 6.4 Python与Logstash的交互示例
  7. 使用Python与Fluentd集成
    • 7.1 Fluentd输入插件配置
    • 7.2 Fluentd过滤插件配置
    • 7.3 Fluentd输出插件配置
    • 7.4 Python与Fluentd的交互示例
  8. 日志数据的存储与索引
    • 8.1 Elasticsearch简介
    • 8.2 Logstash与Elasticsearch的集成
    • 8.3 Fluentd与Elasticsearch的集成
  9. 日志分析与可视化
    • 9.1 Kibana简介与配置
    • 9.2 使用Kibana进行日志可视化
    • 9.3 Python进行日志数据分析
    • 9.4 可视化分析示例
  10. 实时监控与报警
    • 10.1 实时日志监控的重要性
    • 10.2 使用Elasticsearch Watcher进行报警
    • 10.3 Python实现自定义报警机制
  11. 案例分析:分布式系统日志分析
    • 11.1 系统架构概述
    • 11.2 日志收集与聚合流程
    • 11.3 日志分析与故障排查
  12. 优化与性能调优
    • 12.1 日志系统的性能瓶颈
    • 12.2 Logstash与Fluentd的优化策略
    • 12.3 Python脚本的性能优化
  13. 安全性与合规性考虑
    • 13.1 日志数据的安全传输
    • 13.2 日志数据的访问控制
    • 13.3 合规性要求与日志管理
  14. 示例项目实战
    • 14.1 项目结构
    • 14.2 配置文件详解
    • 14.3 Python脚本实现
    • 14.4 系统部署与测试
  15. 总结与展望

1. 引言

在现代分布式系统中,日志是运维人员和开发者排查问题、优化性能的重要依据。随着系统规模的扩大和复杂度的增加,日志数据的生成速度和数量也急剧上升,传统的手工收集和分析方式已经无法满足需求。为了高效地管理和利用日志数据,构建一个自动化、可扩展的日志聚合与分析系统显得尤为重要。本文将介绍如何基于Python实现一个全面的日志聚合与分析工具,结合Logstash和Fluentd等开源工具,打造一个高效的分布式日志系统。

2. 日志聚合与分析概述

日志聚合与分析系统旨在收集分布式系统中各个组件生成的日志数据,进行集中存储、处理和分析,以便于实时监控、故障排查和业务分析。一个典型的日志系统通常包括以下几个核心功能:

  1. 日志收集:从不同来源收集日志数据,包括应用程序日志、系统日志、网络日志等。
  2. 日志传输:将收集到的日志数据传输到集中存储或处理平台。
  3. 日志存储:高效地存储大量日志数据,支持快速检索和查询。
  4. 日志分析:对存储的日志数据进行处理和分析,提取有价值的信息。
  5. 日志可视化:通过图表和仪表盘展示分析结果,帮助用户直观理解日志数据。
  6. 实时监控与报警:实时监控日志数据中的异常情况,并在发现问题时及时报警。

为了实现上述功能,业界常用的工具包括Logstash、Fluentd、Elasticsearch和Kibana等。本文将详细介绍如何使用这些工具,并结合Python脚本,实现一个完整的日志聚合与分析系统。

3. 工具介绍:Logstash与Fluentd

在日志管理领域,Logstash和Fluentd是两款广受欢迎的日志收集和处理工具。它们各自有着不同的特点和优势。

3.1 Logstash

Logstash是由Elastic公司开发的开源数据收集引擎,广泛应用于日志收集、处理和传输。它支持多种输入源、过滤器和输出目标,能够灵活地处理各种类型的数据。Logstash与Elasticsearch和Kibana(统称为ELK Stack)结合使用,可以实现强大的日志分析和可视化功能。

主要特点:

  • 多种输入源:支持文件、网络协议(如TCP、UDP)、消息队列(如Kafka)、数据库等多种数据源。
  • 强大的过滤能力:内置多种过滤器,如grok、date、mutate等,支持自定义插件扩展。
  • 灵活的输出目标:支持Elasticsearch、文件、数据库、消息队列等多种输出方式。
  • 可扩展性:通过插件机制,可以方便地扩展Logstash的功能。

3.2 Fluentd

Fluentd是由Treasure Data开发的开源数据收集器,旨在为日志收集和处理提供统一的解决方案。Fluentd拥有轻量级、高性能和高度可扩展的特点,广泛应用于云原生和微服务架构中。

主要特点:

  • 统一的数据模型:Fluentd使用统一的数据格式(称为Event),简化了不同数据源和目标之间的集成。
  • 插件生态丰富:拥有超过500个插件,支持各种输入、输出和过滤功能。
  • 高性能:采用高效的多线程架构,支持高吞吐量的数据处理。
  • 易于扩展:通过编写Ruby或C语言插件,可以轻松扩展Fluentd的功能。

3.3 Logstash与Fluentd的比较

特性LogstashFluentd
语言JRuby(基于Java)C语言和Ruby
性能较高的内存消耗,适合中等规模日志高性能,适合大规模分布式系统
插件生态丰富,但主要集中在ELK Stack非常丰富,适用于各种场景
配置文件使用专有的配置语法使用统一的配置格式(YAML)
易用性配置较为复杂配置简洁,易于上手

根据具体需求,开发者可以选择适合的工具,或者将两者结合使用,以充分发挥各自的优势。

4. 环境搭建与配置

在开始实现日志聚合与分析系统之前,需要搭建相关的环境,并安装配置所需的工具。本文将以Logstash和Fluentd为例,介绍它们的安装与基本配置。

4.1 安装与配置Logstash

步骤1:下载和安装Logstash

首先,访问Logstash官网下载适用于操作系统的Logstash安装包。以Ubuntu为例,可以使用以下命令安装:

# 导入Elastic GPG key
wget -qO - https://artifacts.elastic.co/GPG-KEY-elasticsearch | sudo apt-key add -# 安装apt-transport-https
sudo apt-get install apt-transport-https# 添加Elastic仓库
echo "deb https://artifacts.elastic.co/packages/7.x/apt stable main" | sudo tee -a /etc/apt/sources.list.d/elastic-7.x.list# 更新包索引并安装Logstash
sudo apt-get update
sudo apt-get install logstash

步骤2:配置Logstash

Logstash的配置文件通常位于/etc/logstash/conf.d/目录下,文件扩展名为.conf。一个基本的配置文件包含三个部分:输入(input)、过滤(filter)和输出(output)。

创建一个名为logstash.conf的配置文件:

sudo nano /etc/logstash/conf.d/logstash.conf

在文件中添加以下内容:

input {beats {port => 5044}
}filter {grok {match => { "message" => "%{COMMONAPACHELOG}" }}date {match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]}
}output {elasticsearch {hosts => ["localhost:9200"]index => "logstash-%{+YYYY.MM.dd}"}stdout { codec => rubydebug }
}

配置说明:

  • Input部分:使用Beats输入插件,监听5044端口,接收来自Filebeat等Beats客户端发送的日志数据。
  • Filter部分:使用Grok过滤器解析Apache日志格式,并使用Date过滤器将时间戳转换为标准格式。
  • Output部分:将处理后的日志数据发送到本地Elasticsearch实例,并在控制台输出调试信息。

步骤3:启动Logstash

启动并启用Logstash服务:

sudo systemctl start logstash
sudo systemctl enable logstash

4.2 安装与配置Fluentd

步骤1:安装Fluentd

Fluentd有多种安装方式,可以通过包管理器、Docker或源码安装。以使用td-agent(Fluentd的稳定发行版)为例,在Ubuntu上安装:

# 导入Treasure Data的GPG key
curl -L https://toolbelt.treasuredata.com/sh/install-ubuntu-bionic-td-agent4.sh | sh

步骤2:配置Fluentd

Fluentd的配置文件通常位于/etc/td-agent/td-agent.conf。编辑配置文件:

sudo nano /etc/td-agent/td-agent.conf

添加以下内容作为示例配置:

<source>@type forwardport 24224
</source><match **>@type elasticsearchhost localhostport 9200logstash_format trueinclude_tag_key truetag_key @log_name
</match>

配置说明:

  • Source部分:使用Forward输入插件,监听24224端口,接收来自Fluentd客户端发送的日志数据。
  • Match部分:将所有匹配的日志数据发送到本地Elasticsearch实例,使用Logstash格式进行索引。

步骤3:启动Fluentd

启动并启用Fluentd服务:

sudo systemctl start td-agent
sudo systemctl enable td-agent

5. 使用Python进行日志收集

Python作为一门强大的编程语言,拥有丰富的标准库和第三方库,适合用于日志的收集、处理和分析。本文将介绍如何使用Python进行日志收集,并将其集成到Logstash和Fluentd中。

5.1 Python日志模块简介

Python内置的logging模块提供了强大的日志记录功能,支持多种日志级别、日志格式和输出目标。通过合理配置,可以将日志数据发送到不同的目的地,如文件、控制台、远程服务器等。

基本用法示例:

import logging# 配置日志
logging.basicConfig(level=logging.INFO,format='%(asctime)s %(levelname)s %(message)s',filename='app.log',filemode='a'
)# 记录日志
logging.info('这是一个信息日志')
logging.error('这是一个错误日志')

5.2 自定义日志收集脚本

为了实现更灵活的日志收集,开发者可以编写自定义的Python脚本,收集特定的日志数据,并通过网络协议(如HTTP、TCP)发送到Logstash或Fluentd。

以下是一个简单的示例,演示如何使用Python收集系统日志并通过HTTP发送到Logstash。

步骤1:安装必要的库

pip install requests

步骤2:编写日志收集与发送脚本

import logging
import requests
import time
import json# 配置日志
logging.basicConfig(level=logging.INFO,format='%(asctime)s %(levelname)s %(message)s',filename='system.log',filemode='a'
)def send_log_to_logstash(log_data, logstash_url):"""通过HTTP将日志数据发送到Logstash:param log_data: 字典格式的日志数据:param logstash_url: Logstash的HTTP输入端点"""headers = {'Content-Type': 'application/json'}try:response = requests.post(logstash_url, data=json.dumps(log_data), headers=headers)if response.status_code == 200:logging.info('日志成功发送到Logstash')else:logging.error(f'发送日志失败,状态码: {response.status_code}')except Exception as e:logging.error(f'发送日志时发生异常: {e}')def collect_system_metrics():"""模拟收集系统指标数据:return: 字典格式的系统指标"""# 这里可以集成psutil等库收集实际的系统指标return {'timestamp': time.strftime("%Y-%m-%d %H:%M:%S"),'cpu_usage': 55.5,  # 示例数据'memory_usage': 70.2  # 示例数据}if __name__ == "__main__":logstash_http_url = 'http://localhost:8080/logs'  # 替换为实际的Logstash HTTP输入端点while True:metrics = collect_system_metrics()send_log_to_logstash(metrics, logstash_http_url)logging.info(f'收集并发送系统指标: {metrics}')time.sleep(60)  # 每60秒收集一次

代码说明:

  • send_log_to_logstash函数:将日志数据通过HTTP POST请求发送到Logstash的HTTP输入端点。
  • collect_system_metrics函数:模拟收集系统指标数据,可以使用psutil库获取实际的CPU和内存使用率。
  • 主程序:每60秒收集一次系统指标,并将其发送到Logstash,同时记录日志到本地文件。

步骤3:运行脚本

确保Logstash的HTTP输入插件已正确配置,并启动Logstash服务。然后运行Python脚本:

python log_sender.py

6. 使用Python与Logstash集成

Logstash作为一个强大的数据收集和处理工具,可以与Python脚本无缝集成,实现灵活的日志处理流程。本文将介绍如何通过Python与Logstash进行集成,包括输入插件、过滤插件和输出插件的配置,以及如何通过Python脚本发送日志数据到Logstash。

6.1 Logstash输入插件配置

Logstash支持多种输入插件,用于接收不同来源的数据。本文以HTTP输入插件为例,展示如何配置Logstash以接收来自Python脚本发送的日志数据。

配置示例:

input {http {port => 8080codec => json}
}

说明:

  • http输入插件监听8080端口,接收HTTP POST请求。
  • codec设置为json,表示接收的数据为JSON格式,并自动解析为Logstash事件。

6.2 Logstash过滤插件配置

过滤插件用于对输入的数据进行处理和转换。常用的过滤插件包括Grok、Date、Mutate等。以下示例展示如何使用Grok和Date过滤器处理日志数据。

配置示例:

filter {grok {match => { "message" => "%{TIMESTAMP_ISO8601:timestamp} %{WORD:metric} %{NUMBER:value}" }}date {match => [ "timestamp", "ISO8601" ]}
}

说明:

  • Grok过滤器:解析消息字段,将其拆分为timestampmetricvalue三个字段。
  • Date过滤器:将timestamp字段转换为标准的时间格式。

6.3 Logstash输出插件配置

输出插件用于将处理后的数据发送到指定的目标。本文以Elasticsearch和控制台输出为例,展示如何配置输出插件。

配置示例:

output {elasticsearch {hosts => ["localhost:9200"]index => "python-logstash-%{+YYYY.MM.dd}"}stdout { codec => rubydebug }
}

说明:

  • Elasticsearch输出插件:将日志数据发送到本地的Elasticsearch实例,并按照日期创建索引。
  • Stdout输出插件:将日志数据输出到控制台,便于调试和查看。

6.4 Python与Logstash的交互示例

以下示例展示了如何使用Python脚本通过HTTP发送日志数据到Logstash。

import requests
import json
import time
import logging# 配置日志
logging.basicConfig(level=logging.INFO,format='%(asctime)s %(levelname)s %(message)s',filename='logstash_sender.log',filemode='a'
)def send_log_to_logstash(log_data, logstash_url):"""通过HTTP将日志数据发送到Logstash:param log_data: 字典格式的日志数据:param logstash_url: Logstash的HTTP输入端点"""headers = {'Content-Type': 'application/json'}try:response = requests.post(logstash_url, data=json.dumps(log_data), headers=headers)if response.status_code == 200:logging.info('日志成功发送到Logstash')else:logging.error(f'发送日志失败,状态码: {response.status_code}')except Exception as e:logging.error(f'发送日志时发生异常: {e}')def collect_application_logs():"""模拟收集应用日志数据:return: 字典格式的应用日志"""return {'timestamp': time.strftime("%Y-%m-%dT%H:%M:%S"),'metric': 'cpu_usage','value': 65.3  # 示例数据}if __name__ == "__main__":logstash_http_url = 'http://localhost:8080'  # Logstash HTTP输入端点while True:log_entry = collect_application_logs()send_log_to_logstash(log_entry, logstash_http_url)logging.info(f'收集并发送应用日志: {log_entry}')time.sleep(30)  # 每30秒发送一次

代码说明:

  • send_log_to_logstash函数:通过HTTP POST请求将日志数据发送到Logstash的HTTP输入端点。
  • collect_application_logs函数:模拟收集应用日志数据,可以根据实际需求修改为收集真实的应用日志。
  • 主程序:每30秒收集一次应用日志,并发送到Logstash,同时记录日志到本地文件。

运行脚本:

确保Logstash服务已启动,并正确配置了HTTP输入插件。然后运行Python脚本:

python logstash_integration.py

通过上述步骤,Python脚本将定期发送日志数据到Logstash,Logstash将其处理后存储到Elasticsearch,并在控制台输出调试信息。

7. 使用Python与Fluentd集成

Fluentd作为一款高性能的日志收集工具,可以与Python脚本无缝集成,实现高效的日志传输和处理。本文将介绍如何通过Python与Fluentd进行集成,包括输入插件、过滤插件和输出插件的配置,以及如何通过Python脚本发送日志数据到Fluentd。

7.1 Fluentd输入插件配置

Fluentd支持多种输入插件,用于接收不同来源的数据。本文以Forward输入插件为例,展示如何配置Fluentd以接收来自Python脚本发送的日志数据。

配置示例:

<source>@type forwardport 24224
</source>

说明:

  • forward输入插件监听24224端口,接收来自Fluentd客户端发送的日志数据。

7.2 Fluentd过滤插件配置

过滤插件用于对输入的数据进行处理和转换。常用的过滤插件包括Parser、Grep、Record Transformer等。以下示例展示如何使用Parser和Record Transformer过滤器处理日志数据。

配置示例:

<filter **>@type parserformat jsonkey_name messagereserve_data true
</filter><filter **>@type record_transformer<record>hostname "#{Socket.gethostname}"</record>
</filter>

说明:

  • Parser过滤器

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/497161.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Nginx区分PC端和移动端访问

在使用Nginx时&#xff0c;可以通过$http_user_agent变量来判断用户访问的客户端类型&#xff0c;从而提供不同的内容或服务。下面是一个基于$http_user_agent变量来判断是否为PC访问的Nginx配置示例。 1. 理解$http_user_agent变量的含义及其在Nginx中的用途 $http_user_agen…

Jmeter快速入门

目录 1.安装Jmeter 1.1.下载 1.2.解压 1.3.运行 2.快速入门 2.1.设置中文语言 2.2.基本用法 1.安装Jmeter Jmeter依赖于JDK&#xff0c;所以必须确保当前计算机上已经安装了JDK&#xff0c;并且配置了环境变量。 1.1.下载 可以Apache Jmeter官网下载&#xff0c;地址…

Ftrans数据摆渡系统 搭建安全便捷跨网文件传输通道

一、专业数据摆渡系统对企业的意义 专业的数据摆渡系统对企业具有重要意义&#xff0c;主要体现在以下几个方面‌&#xff1a; 1、‌数据安全性‌&#xff1a;数据摆渡系统通过加密传输、访问控制和审计日志等功能&#xff0c;确保数据在传输和存储过程中的安全性。 2、‌高…

Jupyter在运行上出现错误:ModuleNotFoundError: No module named ‘wordcloud‘

问题分析&#xff1a;显示Jupyter未安装这个模板 解决办法&#xff1a;在单元格内输入&#xff1a;!pip install wordcloud

JS媒体查询之matchMedia API 实现跟随系统主题色切换效果

&#x1f4ca;写在前面 在网页设计中&#xff0c;跟随系统主题切换可以通过CSS和JavaScript实现。可以通过定义两套CSS变量&#xff0c;根据系统主题的颜色来切换变量的生效&#xff0c;从而实现不同主题下的页面样式变化。 例如&#xff0c;可以使用媒体查询API来获取系统主题…

PageRank Web页面分级算法 HNUST【数据分析技术】(2025)

1.理论知识 算法原理PageRank 通过网络浩瀚的超链接关系来确定一个页面的等级。 Google 把从 A 页面到 B 页面的链接解释为A页面给B页面投票&#xff0c; Google 根据投票来源&#xff08;甚至来源的来源&#xff0c; 即链接到A页面的页面&#xff09;和投票目标的等级来决定新…

OTA场景使用mbed TLS 进行 MD5 校验

应用场景&#xff1a; OTA或者IAP等升级场景&#xff0c;或者数据传输过程中的文件校验. 在使用 mbed TLS 进行 MD5 校验时&#xff0c;首先需要理解 MD5 是一种哈希算法&#xff0c;用于生成一个 128 位&#xff08;16 字节&#xff09;的哈希值&#xff0c;通常用于校验数据…

6-Gin 路由详解 --[Gin 框架入门精讲与实战案例]

Gin 是一个用 Go 语言编写的 HTTP Web 框架&#xff0c;以其高性能和简洁的 API 而闻名。它提供了一套强大的路由功能&#xff0c;使得开发者可以轻松地定义 URL 路由规则&#xff0c;并将这些规则映射到具体的处理函数&#xff08;handler&#xff09;。以下是关于 Gin 路由的…

路过石岩浪心古村

周末常去的七彩城堡儿童乐园附近经常有老房子&#xff0c;没想到老房子最多的地方还是浪心古村。而且越看越有历史。 见到一座写着《序西书室》的房子&#xff0c;我最开始以为是一个古代的学校。但是查了百度更加不知道什么意思了哈。‌“序西书室”‌是指《文心雕龙》中的一个…

[江科大STM32] 第五集STM32工程模板——笔记

保存&#xff0c;进去选芯片型号&#xff0c;我们是F10C8T6 再添加一些文件&#xff0c;自己看路径 然后去 复习这三文件 打开KEIL add existing那个&#xff0c;添加已经存在的文件 还有5个.c.h文件也要添加进来 回到KEIL 点击旁边的settings 如果你用寄存器开发就建到这里就可…

目标检测,语义分割标注工具--labelimg labelme

1 labelimg labelimg可以用来标注目标检测的数据集&#xff0c; 提供多种格式的输出&#xff0c; 如Pascal Voc, YOLO等。 1.1 安装 pip install labelimg1.2 使用 命令行直接输入labelimg即可打开软件主界面进行操作。 使用非常简单&#xff0c; 不做过细的介绍&#xff0…

沪深300股指期货一点多少钱?

首先&#xff0c;我们得知道什么是沪深300股指期货。简单来说&#xff0c;它就是一种期货合约&#xff0c;这个合约的“价格”是根据沪深300指数的点数来定的。沪深300指数是由上海和深圳两个交易所里300只最大的股票组成的一个指数&#xff0c;代表了整个股市的大体走势。 沪…

kettle经验篇:Pentaho Repository 类型资源库卡顿问题

2024年马上就结束了&#xff0c;终于在结束前解决了困扰许久的一个问题&#xff1a;kettle的Pentaho Repository 资源库异常卡顿。所以在此也梳理、记录下2024年的最后一个大问题。 项目场景 工作中一个重要内容是数据中心项目&#xff0c;也就必不可少的要用到ETL技术&#x…

工具变量笔记

补充知识 简单介绍工具变量 假设 Y i α β D i ϵ i Y_i\alpha\beta D_i\epsilon_i Yi​αβDi​ϵi​, where E ( ϵ i ∣ D i ) 0 E(\epsilon_i\mid D_i)0 E(ϵi​∣Di​)0. 但是通常这个条件不满足。于是假如有这样一个工具变量 Z i Z_i Zi​存在的话&#xff0c;满…

简易CPU设计入门:本系统中的通用寄存器(五)

项目代码下载 请大家首先准备好本项目所用的源代码。如果已经下载了&#xff0c;那就不用重复下载了。如果还没有下载&#xff0c;那么&#xff0c;请大家点击下方链接&#xff0c;来了解下载本项目的CPU源代码的方法。 下载本项目代码 准备好了项目源代码以后&#xff0c;我…

04.HTTPS的实现原理-HTTPS的混合加密流程

04.HTTPS的实现原理-HTTPS的混合加密流程 简介1. 非对称加密与对称加密2. 非对称加密的工作流程3. 对称加密的工作流程4. HTTPS的加密流程总结 简介 主要讲述了HTTPS的加密流程&#xff0c;包括非对称加密和对称加密两个阶段。首先&#xff0c;客户端向服务器发送请求&#xf…

【WebAR-图像跟踪】在Unity中基于Imagine WebAR实现AR图像识别

写在前面的话 感慨一下&#xff0c; WebXR的发展是真的快&#xff0c;20年的时候&#xff0c;大多都在用AR.js做WebAR。随着WebXR标准发展&#xff0c;现在诸如Threejs、AFrame、Unity等多个平台都支持里WebXR。 本文将介绍在Unity中使用 Image Tracker实现Web端的AR图像识别功…

视频会议是如何实现屏幕标注功能的?

现在主流的视频会议软件都有屏幕标注功能&#xff0c;屏幕标注功能给屏幕分享者讲解分享内容时提供了极大的方便。那我们以傲瑞视频会议&#xff08;OrayMeeting&#xff09;为例&#xff0c;来讲解屏幕标注是如何实现的。 傲瑞会议的PC端&#xff08;Windows、信创Linux、银河…

物料描述的特殊字符

MM03查看某料号&#xff0c;有特殊字符&#xff0c;看上去是# SE16N中并没有显示出来这个特殊字符 DeBug时可以看到#&#xff0c;复制出来也是#&#xff0c;但其实不是 ALV中也看不到这个特殊字符 需要写代码&#xff0c;获取这个编码Unicode 参考&#xff1a;【ABAP系列】SAP…

HEIC 是什么图片格式?如何把 iPhone 中的 HEIC 转为 JPG?

在 iPhone 拍摄照片时&#xff0c;默认的图片格式为 HEIC。虽然 HEIC 格式具有高压缩比、高画质等优点&#xff0c;但在某些设备或软件上可能存在兼容性问题。因此&#xff0c;将 HEIC 格式转换为更为通用的 JPG 格式就显得很有必要。本教程将介绍如何使用简鹿格式工厂&#xf…