ClickHouse 24.6 版本发布说明

图片

本文字数:14127;估计阅读时间:36 分钟

作者:ClickHouse team

本文在公众号【ClickHouseInc】首发

图片

又到了发布新版本的时间!

发布概要

本次ClickHouse 24.6 版本包含了23个新功能🎁、24项性能优化🛷、59个bug修复🐛

新贡献者

我们向 24.6 版本的所有新贡献者表示特别欢迎!ClickHouse 的流行离不开社区的贡献,看到社区不断壮大,总是令人感动。

以下是新贡献者的名字:

Artem Mustafin、Danila Puzov、Francesco Ciocchetti、Grigorii Sokolik、HappenLee、Kris Buytaert、Lee sungju、Mikhail Gorshkov、Philipp Schreiber、Pratima Patel、Sariel、TTPO100AJIEX、Tim MacDonald、Xu Jia、ZhiHong Zhang、allegrinisante、anonymous、chloro、haohang、iceFireser、morning-color、pn、sarielwxm、wudidapaopao、xogoodnow

最佳表排序

由 Igor Markelov 贡献

MergeTree 表的物理磁盘顺序是由其 ORDER BY 键决定的。

ORDER BY 键和相应的物理行顺序有三个主要目的:

1. 构建稀疏索引以处理范围请求(也可以指定为 PRIMARY KEY)。

2. 定义合并模式的键,例如 AggregatingMergeTree 或 ReplacingMergeTree 表。

3. 通过在列文件中联合存储数据来提高压缩效果。

为了实现第三个目的,本次发布引入了一个新设置,称为 optimize_row_order。这个设置仅适用于普通的 MergeTree 引擎表。在按 ORDER BY 列排序后,它会根据列的基数对剩余列进行排序,以确保最佳压缩效果。

如果数据具有一定的模式,通用压缩编解码器如 LZ4 和 ZSTD 可以实现最高的压缩率。例如,连续相同值的长序列通常能很好地压缩。通过按列值排序行,可以实现这样的长序列,从最低基数列开始。下图对此进行了说明:

图片

如上图所示,行在磁盘上按列值排序,从最低基数列开始,每列中会有长时间运行相同的值。这样可以提高表部分列文件的压缩比。

作为反例,下图展示了首先按高基数列排序行在磁盘上的效果:

图片

由于行按高基数列值排序,通常无法再根据其他列的值进行排序来形成长序列。因此,列文件的压缩比会不理想。

通过新的 optimize_row_order 设置,ClickHouse 自动实现最佳数据压缩。ClickHouse 仍然按 ORDER BY 列排序在磁盘上存储行。此外,在具有相同 ORDER BY 列值的行范围内,按剩余列的值进行排序,这些列按范围内列基数升序排列:

图片

这种优化仅适用于插入时创建的数据部分,不适用于部分合并。由于普通 MergeTree 表的大多数合并仅连接 ORDER BY 键的非重叠范围,因此已优化的行顺序通常会保留。

根据数据特性,预计插入时间将增加 30-50%。

预计 LZ4 或 ZSTD 的压缩率平均会提高 20-40%。

此设置最适用于没有 ORDER BY 键或低基数 ORDER BY 键的表,即仅有少数不同 ORDER BY 键值的表。具有高基数 ORDER BY 键的表,例如 DateTime64 类型的时间戳列,预计不会从此设置中受益。

为了展示这一新优化,我们将 10 亿行公共 PyPI 下载统计数据集加载到一个不使用 optimize_row_order 设置的表和一个使用 optimize_row_order 设置的表中。

我们创建了没有新设置的表:

CREATE OR REPLACE TABLE pypi
(`timestamp` DateTime64(6),`date` Date MATERIALIZED timestamp,`country_code` LowCardinality(String),`url` String,`project` String,`file` Tuple(filename String, project String, version String, type Enum8('bdist_wheel' = 0, 'sdist' = 1, 'bdist_egg' = 2, 'bdist_wininst' = 3, 'bdist_dumb' = 4, 'bdist_msi' = 5, 'bdist_rpm' = 6, 'bdist_dmg' = 7)),`installer` Tuple(name LowCardinality(String), version LowCardinality(String)),`python` LowCardinality(String),`implementation` Tuple(name LowCardinality(String), version LowCardinality(String)),`distro` Tuple(name LowCardinality(String), version LowCardinality(String), id LowCardinality(String), libc Tuple(lib Enum8('' = 0, 'glibc' = 1, 'libc' = 2), version LowCardinality(String))),`system` Tuple(name LowCardinality(String), release String),`cpu` LowCardinality(String),`openssl_version` LowCardinality(String),`setuptools_version` LowCardinality(String),`rustc_version` LowCardinality(String),`tls_protocol` Enum8('TLSv1.2' = 0, 'TLSv1.3' = 1),`tls_cipher` Enum8('ECDHE-RSA-AES128-GCM-SHA256' = 0, 'ECDHE-RSA-CHACHA20-POLY1305' = 1, 'ECDHE-RSA-AES128-SHA256' = 2, 'TLS_AES_256_GCM_SHA384' = 3, 'AES128-GCM-SHA256' = 4, 'TLS_AES_128_GCM_SHA256' = 5, 'ECDHE-RSA-AES256-GCM-SHA384' = 6, 'AES128-SHA' = 7, 'ECDHE-RSA-AES128-SHA' = 8, 'AES128-GCM' = 9)
)
Engine = MergeTree
ORDER BY (project);

并将数据加载到该表中。注意,为了更好地展示优化效果,我们增加了 min_insert_block_size_rows 的值:

INSERT INTO pypi
SELECT*
FROM s3('https://storage.googleapis.com/clickhouse_public_datasets/pypi/file_downloads/sample/2023/{0..61}-*.parquet')
SETTINGSinput_format_null_as_default = 1,input_format_parquet_import_nested = 1,min_insert_block_size_bytes = 0,min_insert_block_size_rows = 60_000_000;

接下来,我们使用新设置创建相同的表:

CREATE TABLE pypi_opt
(`timestamp` DateTime64(6),`date` Date MATERIALIZED timestamp,`country_code` LowCardinality(String),`url` String,`project` String,`file` Tuple(filename String, project String, version String, type Enum8('bdist_wheel' = 0, 'sdist' = 1, 'bdist_egg' = 2, 'bdist_wininst' = 3, 'bdist_dumb' = 4, 'bdist_msi' = 5, 'bdist_rpm' = 6, 'bdist_dmg' = 7)),`installer` Tuple(name LowCardinality(String), version LowCardinality(String)),`python` LowCardinality(String),`implementation` Tuple(name LowCardinality(String), version LowCardinality(String)),`distro` Tuple(name LowCardinality(String), version LowCardinality(String), id LowCardinality(String), libc Tuple(lib Enum8('' = 0, 'glibc' = 1, 'libc' = 2), version LowCardinality(String))),`system` Tuple(name LowCardinality(String), release String),`cpu` LowCardinality(String),`openssl_version` LowCardinality(String),`setuptools_version` LowCardinality(String),`rustc_version` LowCardinality(String),`tls_protocol` Enum8('TLSv1.2' = 0, 'TLSv1.3' = 1),`tls_cipher` Enum8('ECDHE-RSA-AES128-GCM-SHA256' = 0, 'ECDHE-RSA-CHACHA20-POLY1305' = 1, 'ECDHE-RSA-AES128-SHA256' = 2, 'TLS_AES_256_GCM_SHA384' = 3, 'AES128-GCM-SHA256' = 4, 'TLS_AES_128_GCM_SHA256' = 5, 'ECDHE-RSA-AES256-GCM-SHA384' = 6, 'AES128-SHA' = 7, 'ECDHE-RSA-AES128-SHA' = 8, 'AES128-GCM' = 9)
)
Engine = MergeTree
ORDER BY (project)
SETTINGS optimize_row_order = 1;

并将数据加载到该表中:

INSERT INTO pypi_opt
SELECT*
FROM s3('https://storage.googleapis.com/clickhouse_public_datasets/pypi/file_downloads/sample/2023/{0..61}-*.parquet')
SETTINGSinput_format_null_as_default = 1,input_format_parquet_import_nested = 1,min_insert_block_size_bytes = 0,min_insert_block_size_rows = 60_000_000;

让我们比较两个表的存储大小和压缩比:

SELECT`table`,formatReadableQuantity(sum(rows)) AS rows,formatReadableSize(sum(data_uncompressed_bytes)) AS uncompressed,formatReadableSize(sum(data_compressed_bytes)) AS compressed,round(sum(data_uncompressed_bytes) / sum(data_compressed_bytes), 0) AS ratio
FROM system.parts
WHERE active AND (database = 'default') AND startsWith(`table`, 'pypi')
GROUP BY `table`
ORDER BY `table` ASC;┌─table────┬─rows─────────┬─uncompressed─┬─compressed─┬─ratio─┐
1. │ pypi     │ 1.01 billion │ 227.97 GiB   │ 25.36 GiB  │     9 │
2. │ pypi_opt │ 1.01 billion │ 227.97 GiB   │ 17.52 GiB  │    13 │└──────────┴──────────────┴──────────────┴────────────┴───────┘

可以看到,使用新设置的表的数据压缩率提高了约 30%。

chDB 2.0

由 Auxten Wang 贡献

chDB 是 ClickHouse 的一种进程内版本,支持多种语言,尤其是 Python。它在今年早些时候加入 ClickHouse 家族,并在本周发布了 Python 库的 2.0 版本。

要安装该版本,您需要在安装时指定版本,如下所示:

pip install chdb==2.0.0b1

在此版本中,ClickHouse 引擎已升级到 24.5 版本,现在可以直接查询 Pandas DataFrame、Arrow 表和 Python 对象。

首先,我们生成一个包含 1 亿行的 CSV 文件:

import pandas as pd
import datetime as dt
import randomrows = 100_000_000
now = dt.date.today()df = pd.DataFrame({"score": [random.randint(0, 1_000_000) for _ in range(0, rows)],"result": [random.choice(['win', 'lose', 'draw']) for _ in range(0, rows)],"dateOfBirth": [now - dt.timedelta(days = random.randint(5_000, 30_000)) for _ in range(0, rows)]
})df.to_csv("scores.csv", index=False)

然后我们可以编写以下代码,将数据加载回 Pandas DataFrame 并使用 chDB 的 Python 表引擎查询 DataFrame:

import pandas as pd
import chdb
import timedf = pd.read_csv("scores.csv")start = time.time()
print(chdb.query("""
SELECT sum(score), avg(score), median(score),avgIf(score, dateOfBirth > '1980-01-01') as avgIf,countIf(result = 'win') AS wins,countIf(result = 'draw') AS draws,countIf(result = 'lose') AS losses,count()
FROM Python(df)
""", "Vertical"))
end = time.time()
print(f"{end-start} seconds")

输出如下:

Row 1:
──────
sum(score):    49998155002154
avg(score):    499981.55002154
median(score): 508259
avgIf:         499938.84709508
wins:          33340305
draws:         33334238
losses:        33325457
count():       1000000000.4595322608947754 seconds

我们可以将 CSV 文件加载到 PyArrow 表中并查询该表:

import pyarrow.csvtable = pyarrow.csv.read_csv("scores.csv")start = time.time()
print(chdb.query("""
SELECT sum(score), avg(score), median(score),avgIf(score, dateOfBirth > '1980-01-01') as avgIf,countIf(result = 'win') AS wins,countIf(result = 'draw') AS draws,countIf(result = 'lose') AS losses,count()
FROM Python(table)
""", "Vertical"))
end = time.time()
print(f"{end-start} seconds")

代码块的输出如下所示:

Row 1:
──────
sum(score):    49998155002154
avg(score):    499981.55002154
median(score): 493265
avgIf:         499955.15289763256
wins:          33340305
draws:         33334238
losses:        33325457
count():       1000000003.0047709941864014 seconds

我们还可以查询 Python 字典,只要字典的值是一个列表:

x = {"col1": [random.uniform(0, 1) for _ in range(0, 1_000_000)]}print(chdb.query("""
SELECT avg(col1), max(col1)
FROM Python(x)
""", "DataFrame"))avg(col1)  max(col1)
0   0.499888   0.999996

试试看,并告诉我们你的使用情况!

Hilbert 曲线

由 Artem Mustafin 贡献

有数学背景的用户可能对空间填充曲线的概念比较熟悉。在 24.6 版本中,我们增加了对 Hilbert 曲线的支持,以补充现有的 Morton 编码函数。这些曲线有助于加速某些查询,特别是在时间序列和地理数据中。

空间填充曲线是一种连续曲线,可以经过给定多维空间内的每一个点,通常在一个单位平方或立方体内,从而完全填充空间。这些曲线对很多人来说都非常吸引人,主要是因为它们挑战了我们直觉中一维线条无法覆盖二维区域或更高维体积的想法。最著名的例子包括 Hilbert 曲线和较早期的 Peano 曲线,二者都是通过迭代方式增加在空间内的复杂性和密度。空间填充曲线在数据库中有实际应用,因为它们能够有效地将多维数据映射到一维,同时保持局部性。

考虑一个二维坐标系,一个函数将任何点映射到一维线上,同时保持局部性,确保原空间中接近的点在该线上仍然接近。可以想象一个二维空间被分成四个象限,每个象限进一步分成四个,形成 16 个部分。这个递归过程虽然概念上是无限的,但在有限深度上更容易理解,例如深度 3,生成一个 8x8 的网格,有 64 个象限。该函数生成的曲线经过所有象限,保持原点在最终线上的接近性。

图片

重要的是,递归和分割空间越深入,线上的点在其对应的二维位置上的稳定性越高。最终,这种曲线在无穷深度时可以完全“填满”空间。

用户可能熟悉来自 Delta Lake 等湖泊格式中的 Z-ordering 术语——也称为 Morton 顺序。这是另一种空间填充曲线,类似于上面的 Hilbert 例子,它也保留了空间局部性。ClickHouse 中的 mortonEncode 函数支持的 Morton 顺序,虽然局部性保留不如 Hilbert 曲线,但由于计算和实现更简单,在某些情况下更受欢迎。

对于空间填充曲线及其与无限数学的关系的精彩介绍,我们推荐这段视频。(https://www.youtube.com/watch?v=3s7h2MHQtxc)

那么这对优化数据库查询有什么用呢?

我们可以将多列有效地编码为单个值,通过保持数据的空间局部性,将结果值作为表中的排序顺序。这对于提高范围查询和最近邻搜索的性能非常有用,尤其当编码列在范围和分布上具有相似属性且具有大量不同值时。这些空间填充曲线的特性确保了高维空间中接近的值在相同的范围查询中会有相似的排序值,并属于相同的颗粒。因此,需要读取的颗粒更少,查询速度更快!

这些列不应有相关性——在这种情况下,传统的字典排序(如 ClickHouse 排序键使用的排序)更有效,因为按第一列排序会自然地对第二列排序。

虽然数值物联网数据(如时间戳和传感器值)通常满足这些属性,但更直观的例子是地理纬度和经度坐标。让我们看一个简单的例子,看看 Hilbert 编码如何加速这些类型的查询。

考虑 NOAA 全球历史气候网络数据,包含过去 120 年的 10 亿条天气测量数据。每行是一个时间点和站点的测量数据。我们在一个 2xcore r5.large 实例上进行以下操作。

我们稍微修改了默认架构,添加了 mercator_x 和 mercator_y 列。这些值通过对纬度和经度进行墨卡托投影得到,允许数据在二维表面上可视化。该投影通常用于将点投影到指定高度和宽度的像素空间中,如前几篇博客所示。我们使用它将坐标从 Float32 投影到无符号整数(使用最大 Int32 值 4294967295 作为高度和宽度),这是 hilbertEncode 函数所需的。

墨卡托投影是一种常用于地图的流行投影。它有许多优点,主要是它在局部尺度上保持角度和形状,使其成为导航的绝佳选择。它还具有恒定方位角(行进方向)为直线的优点,使导航变得简单。

CREATE OR REPLACE FUNCTION mercator AS (coord) -> (((coord.1) + 180) * (4294967295 / 360),(4294967295 / 2) - ((4294967295 * ln(tan((pi() / 4) + ((((coord.2) * pi()) / 180) / 2)))) / (2 * pi()))
)CREATE TABLE noaa
(`station_id` LowCardinality(String),`date` Date32,`tempAvg` Int32 COMMENT 'Average temperature (tenths of a degrees C)',`tempMax` Int32 COMMENT 'Maximum temperature (tenths of degrees C)',`tempMin` Int32 COMMENT 'Minimum temperature (tenths of degrees C)',`precipitation` UInt32 COMMENT 'Precipitation (tenths of mm)',`snowfall` UInt32 COMMENT 'Snowfall (mm)',`snowDepth` UInt32 COMMENT 'Snow depth (mm)',`percentDailySun` UInt8 COMMENT 'Daily percent of possible sunshine (percent)',`averageWindSpeed` UInt32 COMMENT 'Average daily wind speed (tenths of meters per second)',`maxWindSpeed` UInt32 COMMENT 'Peak gust wind speed (tenths of meters per second)',`weatherType` Enum8('Normal' = 0, 'Fog' = 1, 'Heavy Fog' = 2, 'Thunder' = 3, 'Small Hail' = 4, 'Hail' = 5, 'Glaze' = 6, 'Dust/Ash' = 7, 'Smoke/Haze' = 8, 'Blowing/Drifting Snow' = 9, 'Tornado' = 10, 'High Winds' = 11, 'Blowing Spray' = 12, 'Mist' = 13, 'Drizzle' = 14, 'Freezing Drizzle' = 15, 'Rain' = 16, 'Freezing Rain' = 17, 'Snow' = 18, 'Unknown Precipitation' = 19, 'Ground Fog' = 21, 'Freezing Fog' = 22),`location` Point,`elevation` Float32,`name` LowCardinality(String),`mercator_x` UInt32 MATERIALIZED mercator(location).1,`mercator_y` UInt32 MATERIALIZED mercator(location).2
)
ENGINE = MergeTree
ORDER BY (station_id, date)INSERT INTO noaa SELECT * FROM s3('https://datasets-documentation.s3.eu-west-3.amazonaws.com/noaa/noaa_enriched.parquet') WHERE location.1 < 180 AND location.1 > -180 AND location.2 > -90 AND location.2 < 90

假设我们要计算一个边界框区域的统计数据。例如,我们可以计算阿尔卑斯山每周的总降雪量和平均雪深,这可能有助于我们确定最佳滑雪时间。

图片

按 station_id 和 date 排序在这里没有实际意义,会导致对所有行的线性扫描。

WITHmercator((5.152588, 44.184654)) AS bottom_left,mercator((16.226807, 47.778548)) AS upper_right
SELECTtoWeek(date) AS week,sum(snowfall) / 10 AS total_snowfall,avg(snowDepth) AS avg_snowDepth
FROM noaa
WHERE (mercator_x >= (bottom_left.1)) AND (mercator_x < (upper_right.1)) AND (mercator_y >= (upper_right.2)) AND (mercator_y < (bottom_left.2))
GROUP BY week
ORDER BY week ASC54 rows in set. Elapsed: 1.449 sec. Processed 1.05 billion rows, 4.61 GB (726.45 million rows/s., 3.18 GB/s.)┌─week─┬─total_snowfall─┬──────avg_snowDepth─┐
│    0 │            0 │ 150.52388947519907 │
│    1 │        56.7 │ 164.85788967420854 │
│    2 │          44 │ 181.53357163761027 │
│    3 │        13.3 │ 190.36173190191738 │
│    4 │        25.2 │ 199.41843468092216 │
│    5 │        30.7 │ 207.35987294422503 │
│    6 │        18.8 │  222.9651218746731 │
│    7 │             7.6 │ 233.50080515297907 │
│    8 │           2.8 │ 234.66253449285057 │
│    9 │          19 │ 231.94969343126792 │
...
│   48 │            5.1 │  89.46301878043126 │
│   49 │        31.1 │ 103.70976325737577 │
│   50 │        11.2 │  119.3421940216704 │
│   51 │          39 │ 133.65286953585073 │
│   52 │        20.6 │  138.1020341499629 │
│   53 │            2 │ 125.68478260869566 │
└─week─┴─total_snowfall──┴──────avg_snowDepth─┘

对于这种查询,一个自然的选择是按 mercator_x 和 mercator_y 排序表——先按 mercator_x,然后按 mercator_y 排序数据。这可以显著提高查询性能,将读取的行数减少到 4200 万:

CREATE TABLE noaa_lat_lon
(`station_id` LowCardinality(String),…`mercator_x` UInt32 MATERIALIZED mercator(location).1,`mercator_y` UInt32 MATERIALIZED mercator(location).2
)
ENGINE = MergeTree
ORDER BY (mercator_x, mercator_y)--populate from existing
INSERT INTO noaa_lat_lon SELECT * FROM noaaWITHmercator((5.152588, 44.184654)) AS bottom_left,mercator((16.226807, 47.778548)) AS upper_right
SELECTtoWeek(date) AS week,sum(snowfall) / 10 AS total_snowfall,avg(snowDepth) AS avg_snowDepth
FROM noaa_lat_lon
WHERE (mercator_x >= (bottom_left.1)) AND (mercator_x < (upper_right.1)) AND (mercator_y >= (upper_right.2)) AND (mercator_y < (bottom_left.2))
GROUP BY week
ORDER BY week ASC--results omitted for brevity
54 rows in set. Elapsed: 0.197 sec. Processed 42.37 million rows, 213.44 MB (214.70 million rows/s., 1.08 GB/s.)

顺便提一下,有经验的 ClickHouse 用户可能会尝试使用 pointInPolygon 函数。但不幸的是,这目前不能利用索引,导致性能较差。

我们可以看到,通过使用 EXPLAIN indexes=1 子句,这个键在过滤颗粒方面相对有效,将读取的颗粒数减少到 5172。

EXPLAIN indexes = 1
WITHmercator((5.152588, 44.184654)) AS bottom_left,mercator((16.226807, 47.778548)) AS upper_right
SELECTtoWeek(date) AS week,sum(snowfall) / 10 AS total_snowfall,avg(snowDepth) AS avg_snowDepth
FROM noaa_lat_lon
WHERE (mercator_x >= (bottom_left.1)) AND (mercator_x < (upper_right.1)) AND (mercator_y >= (upper_right.2)) AND (mercator_y < (bottom_left.2))
GROUP BY week
ORDER BY week ASC

图片

然而,上述的二级排序无法保证邻近的点位于相同的颗粒中。Hilbert 编码可以提供这种特性,使我们能够更有效地过滤颗粒。为此,我们需要将表的 ORDER BY 修改为 hilbertEncode(mercator_x, mercator_y)

CREATE TABLE noaa_hilbert
(`station_id` LowCardinality(String),...`mercator_x` UInt32 MATERIALIZED mercator(location).1,`mercator_y` UInt32 MATERIALIZED mercator(location).2
)
ENGINE = MergeTree
ORDER BY hilbertEncode(mercator_x, mercator_y)WITHmercator((5.152588, 44.184654)) AS bottom_left,mercator((16.226807, 47.778548)) AS upper_right
SELECTtoWeek(date) AS week,sum(snowfall) / 10 AS total_snowfall,avg(snowDepth) AS avg_snowDepth
FROM noaa_hilbert
WHERE (mercator_x >= (bottom_left.1)) AND (mercator_x < (upper_right.1)) AND (mercator_y >= (upper_right.2)) AND (mercator_y < (bottom_left.2))
GROUP BY week
ORDER BY week ASC--results omitted for brevity54 rows in set. Elapsed: 0.090 sec. Processed 3.15 million rows, 41.16 MB (35.16 million rows/s., 458.74 MB/s.)

使用 Hilbert 编码后,查询性能提高一倍,耗时仅为 0.09 秒,读取行数减少到 300 万。我们可以通过 EXPLAIN indexes=1 确认更高效的颗粒过滤。

图片

为什么不直接对所有排序键使用 Hilbert 或 Morton 编码?

首先,mortonEncode 和 hilbertEncode 函数仅适用于无符号整数(因此需要使用前述的墨卡托投影)。其次,如果列之间有相关性,使用空间填充曲线不仅没有好处,还会增加插入和排序的时间开销。此外,如果仅按键的第一列过滤,经典排序更有效;而如果按第二列过滤,Hilbert(或 Morton 排序)编码平均会更快。

征稿启示

面向社区长期正文,文章内容包括但不限于关于 ClickHouse 的技术研究、项目实践和创新做法等。建议行文风格干货输出&图文并茂。质量合格的文章将会发布在本公众号,优秀者也有机会推荐到 ClickHouse 官网。请将文章稿件的 WORD 版本发邮件至:Tracy.Wang@clickhouse.com

​​联系我们

手机号:13910395701

邮箱:Tracy.Wang@clickhouse.com

满足您所有的在线分析列式数据库管理需求

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/388721.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

嵌入式人工智能(39-基于树莓派4B的震动传感器和霍尔传感器)

这两个传感器实验比较简单&#xff0c;也都属于力传感器&#xff0c;就放一起做了。 1、震动传感器 震动传感器是一种用于检测和测量物体震动、振动和冲击的设备。它通常由一个敏感元件和一个信号处理单元组成。敏感元件可以是压电材料、光电材料、加速度传感器等。当物体发生…

【Git】git 从入门到实战系列(一)—— Git 的诞生,Linus 如何在 14 天内编写出 Git?

<> 博客简介&#xff1a;Linux、rtos系统&#xff0c;arm、stm32等芯片&#xff0c;嵌入式高级工程师、面试官、架构师&#xff0c;日常技术干货、个人总结、职场经验分享   <> 公众号&#xff1a;嵌入式技术部落   <> 系列专栏&#xff1a;C/C、Linux、rt…

golang JSON序列化

JSON JSON(JavaScript Object Notation) 是一种轻量级的数据交换格式。 易于人阅读和编写。同时也易于机器解析和生成。 它基于JavaScript Programming Language, Standard ECMA-262 3rd Edition - December 1999的一个子集。 json历史 [外链图片转存失败,源站可能有防盗链机…

看不见的硝烟:中国网络安全三十年沉浮史

2022 年 5 月 16 日&#xff0c;俄罗斯黑客组织 KillNet 向包括美国、英国、德国在内 10 个国家的政府正式 “宣战”。 2022 年 4 月 28 日&#xff0c;一则消息刷屏&#xff0c;北京健康宝在使用高峰期间&#xff0c;遭受到境外网络攻击。北京健康宝保障团队进行了及时有效应…

4G/5G无线视频采集设备如何通过国标28181接入到视频监控接入平台(视频统一接入平台)

目录 一、国标GB/T 28181介绍 1、国标GB/T28181 2、内容和特点 二、4G/5G无线视频采集设备 1、定义 2、主要功能&#xff1a; 3、技术特点 4、应用场景 二、接入准备工作 1、确定网络环境 &#xff08;1&#xff09;公网接入 &#xff08;2&#xff09;专网传输 2、…

一款功能强大的免费开源卸载工具

BCUninstaller&#xff0c;也称为Bulk Crap Uninstaller&#xff08;简称BCU&#xff09;&#xff0c;是一款免费且开源的Windows平台专用程序卸载工具。它的主要功能是帮助用户高效地批量卸载不需要的应用程序和组件&#xff0c;从而优化系统性能。 BCUninstaller功能特点 批…

这本vue3编译原理开源电子书,初中级前端竟然都能看懂

前言 众所周知vue提供了很多黑魔法&#xff0c;比如单文件组件(SFC)、指令、宏函数、css scoped等。这些都是vue提供的开箱即用的功能&#xff0c;大家平时用这些黑魔法的时候有没有疑惑过一些疑问呢。 我们每天写的vue代码一般都是写在*.vue文件中&#xff0c;但是浏览器却只…

【大厂笔试】翻转、平衡、对称二叉树,最大深度、判断两棵树是否相等、另一棵树的子树

检查两棵树是否相同 100. 相同的树 - 力扣&#xff08;LeetCode&#xff09; 思路解透 两个根节点一个为空一个不为空的话&#xff0c;这两棵树就一定不一样了若两个跟节点都为空&#xff0c;则这两棵树一样当两个节点都不为空时&#xff1a; 若两个根节点的值不相同&#xff…

【数据结构】了解哈希表,解决哈希冲突,用Java模拟实现哈希桶

哈希表的概念 哈希表&#xff08;Hash Table&#xff09;是一种高效的数据结构&#xff0c;用于实现快速的数据存储和检索。它通过将数据映射到一个数组的索引位置&#xff0c;从而能够在平均情况下实现O(1)的时间复杂度进行查找、插入和删除操作。 哈希表的基本概念包括以下…

java面向对象重点总结

文章目录 java面向对象重点总结类与实例构造方法方法重载属性与修饰符封装继承多态重构抽象类接口抽象类和接口的区别&#xff1a;集合泛型 java面向对象重点总结 对象是一个自包含的实体&#xff0c;用一组可识别的特性和行为来标识。 面向对象编程&#xff0c;英文叫Object…

flink 1.17 测试

1、配置 2、测试&#xff1a; ./bin/flink run-application -t yarn-application -Dyarn.application.namewordcount -c org.apache.flink.streaming.examples.wordcount.WordCount ./examples/streaming/WordCount.jar --input hdfs://jy/tmp/input --output hdfs://jy/tmp/o…

C++学习:C++是如何运行的

C 是一种强类型的编程语言&#xff0c;支持面向对象、泛型和低级内存操作。它的工作机制包括从编写源代码到生成可执行文件的一系列步骤。C与文件无关&#xff0c;文件只是容纳运行内容的载体&#xff0c;需要对文件以目标系统的规则编译后&#xff0c;才能在目标系统中运行。 …

java算法递归算法练习-数组之和

简单找个题目练习一下递归算法&#xff0c;输入一组数组&#xff0c;使用递归的方法计算数组之和。其实这个题目&#xff0c;用循环的方式也很简单就能解决&#xff0c;直接循环遍历一下相加就行了&#xff0c;但是我们用来练习一下递归。 先来找基线条件和递归条件 基线条件…

springboot+webSocket对接chatgpt

webSocket对接参考 话不多说直接上代码 WebSocket package com.student.config;import com.alibaba.fastjson2.JSONArray; import com.alibaba.fastjson2.JSONObject; import lombok.extern.slf4j.Slf4j; import org.springframework.http.MediaType; import org.springfram…

matplotLib在图中标出最后一个点的值

import matplotlib.pyplot as plt import numpy as np# 生成100个随机数据 data np.random.rand(100)# 绘制数据 plt.plot(data, labelData Points)# 获取最后一个数据点的位置和值 last_x len(data) - 1 last_y data[-1]# 用红圈标出最后一个点 plt.plot(last_x, last_y, r…

STM32-寄存器DMA配置指南

配置步骤 在STM32F0xx中文参考手册中的DMA部分在开头给出了配置步骤 每个通道都可以在外设寄存器固定地址和存储器地址之间执行 DMA 传输。DMA 传输的数据 量是可编程的&#xff0c;最大达到 65535。每次传输之后相应的计数寄存器都做一次递减操作&#xff0c;直到 计数为&am…

jdk环境、tomcat环境

回顾复习 安装nodejs&#xff0c;和jdk一样的软件运行环境 yum -y list installed|grep epel #是否安装epel yum -y install nodejs node -v #查看版本号 下载对应的nodejs软件npm yum -y install npm npm -v #查 npm set config ....淘宝镜像 安装vue/cli…

[ACTF2020 新生赛]BackupFile1

打开题目 利用disearch扫描&#xff0c;发现源文件index.php.bak 下载下来 打开文件 代码审计&#xff0c;翻译一下 翻译代码为&#xff1a; <?php include_once "flag.php"; //这一行使用 include_once 函数来包含&#xff08;或插入&#xff09;另一个 PHP …

Win11系统文件资源管理器鼠标右键卡顿解决方法

引用链接&#xff1a; Windows 11文件资源管理器崩溃怎么解决&#xff1f;看看这7个解决办法&#xff01;

Redis的集群 高可用

文章目录 Redis基本概念主从复制哨兵模式故障切换集群 Redis基本概念 Redis集群三种模式 主从复制&#xff1a;奇数台 3&#xff1a; 一主两从 哨兵模式&#xff1a;3&#xff1a; 1主两从 cluster&#xff1a;6 主从复制&#xff1a;和mysql的主从复制类似&#xff0c;主…