当前位置: 首页 > news >正文

008.精读《Apache Paimon Docs - Table w/o PK》

文章目录

    • 1. 引言
    • 2. 基本概念
      • 2.1 定义
      • 2.2 使用场景
    • 3. 流式处理
      • 3.1 自动小文件合并
      • 3.2 流式查询
    • 4. 数据更新
      • 4.1 查询
      • 4.2 更新
      • 4.3 分桶附加表
    • 5 总结

1. 引言

通过本文,上篇我们了解了Apache Paimon 主键表,本期我们将继续学习附加表Append Only Table) 我们将带领读者《 《Apache Paimon Docs - Table w/o PK》》 继续剖析 Paimon 的仅追加表相关知识。

通过本文你将了解到:

  1. Paimon 附加表相关的基本概念,了解什么是附加表,它在Paimon中扮演什么角色,以及它如何与主键表区分开来。
  2. 及其适用场景,探索附加表在实际应用中的多样化场景。
  3. 数据查询更新方式,从高效的数据合并策略到灵活的流式查询配置,以及如何通过索引和文件索引优化查询性能。

2. 基本概念

2.1 定义

如果一个表没有定义主键,那它就是一个附加表(Append Table)。与主键表相比,附加表无法直接接收变更日志,也不能直接通过 upsert 更新数据,只能接收附加数据。

CREATE TABLE my_table (product_id BIGINT,price DOUBLE,sales BIGINT
) WITH (-- 'target-file-size' = '256 MB',-- 'file.format' = 'parquet',-- 'file.compression' = 'zstd',-- 'file.compression.zstd-level' = '3'
);

2.2 使用场景

使用场景或优势说明
批量写入和批量读取类似于常规的 Hive 分区表,适用于大规模数据的批量处理。
友好的对象存储良好的兼容性和适应性,支持 S3、OSS 等对象存储。
时间穿越和回滚支持数据的时间旅行和回滚功能,方便数据的历史查询和恢复。
低成本的删除和更新在批量数据操作中,能够以较低的计算和资源成本进行删除和更新操作。
流式接收中的小文件自动合并在流式写入过程中,自动处理小文件合并,减少存储碎片。
队列形式的流式读写支持如队列般的流式读写操作,可以像消息队列一样处理数据。
高性能查询通过顺序和索引实现的高效查询性能。

批量写入和读取

CREATE TABLE my_table (product_id BIGINT,price DOUBLE,sales BIGINT
) WITH ('target-file-size' = '256 MB',                     -- 设置目标文件大小'file.format' = 'parquet',                         -- 文件格式为 Parquet'file.compression' = 'zstd',                       -- 使用 ZSTD 压缩'file.compression.zstd-level' = '3'                -- 设置 ZSTD 压缩级别为 3
);

流式接收和小文件合并

CREATE TABLE my_stream_table (event_id BIGINT,event_time TIMESTAMP,event_data STRING
) WITH ('target-file-size' = '128 MB',                     -- 设置目标文件大小'file.format' = 'avro',                            -- 文件格式为 Avro'file.compression' = 'snappy',                     -- 使用 Snappy 压缩'streaming.min-batch-interval' = '5 min'           -- 设置流处理最小批处理时间间隔为 5 分钟
);

具有以下的优点:

功能特性技术优势实现
对象存储友好良好的兼容性和适应性,支持 S3、OSS 等对象存储。通过接入主流对象存储服务,优化读写性能和兼容性,特别是大规模数据存储和处理场景下。
时间穿越和回滚支持数据的时间旅行和回滚功能,方便数据的历史查询和恢复。利用快照和元数据管理,实现任意时间点的数据查询和回滚能力。
低成本的删除和更新在批量数据操作中,能够以较低的计算和资源成本进行删除和更新操作。通过高效的数据合并和变更处理机制,优化批量操作中的资源消耗。
小文件合并在流式写入过程中,自动处理小文件合并,减少存储碎片。在流式写入过程中,使用异步任务定期合并小文件,确保合理的文件大小和存储效率。
高性能查询通过顺序和索引实现的高效查询性能。通过索引构建和数据排序,提升查询的响应速度和资源利用效率。

3. 流式处理

附加表(Append Table)可以通过 Flink 进行非常灵活的流式写入,并可以像队列一样通过 Flink 进行读取。唯一的区别是其延迟为分钟级别,但其优势在于非常低的成本以及能够进行过滤和投影下推。

3.1 自动小文件合并

在流式写入作业中,如果没有定义分桶(bucket),写入器不会进行压缩;相反,将使用压缩协调器(Compact Coordinator)扫描小文件并将压缩任务传递给压缩工作者(Compact Worker)。流式模式下,如果在 Flink 中运行插入 SQL,拓扑结构将如下所示:

Source -> Transformations -> Sink-> Compact Coordinator -> Compact Worker
  • 无反压:压缩任务不会引起反压。
  • 写入模式:如果设置 write-onlytrue,压缩协调器和压缩工作者将在拓扑中被移除。
  • Flink 流模式:自动压缩仅在 Flink 引擎的流模式下被支持。可以通过 Paimon 在 Flink 中启动压缩作业,并通过设置 write-only 禁用所有其他压缩。

3.2 流式查询

附加表可以像消息队列一样使用,进行流式查询,与主键表类似,有两个选项可以进行流式读取:

  1. 默认模式:流式读取在首次启动时生成表的最新快照,并继续读取最新的增量记录。
  2. 增量模式:可以指定 scan.modescan.snapshot-idscan.timestamp-millisscan.file-creation-time-millis 进行增量读取。

类似 Flink-Kafka,默认情况下不保证顺序。如果数据需要某种顺序,也需要考虑定义桶键(bucket-key),请参考分桶附加(Bucketed Append)部分。

流式写入和自动小文件合并

CREATE TABLE my_stream_table (event_id BIGINT,event_time TIMESTAMP,event_data STRING
) WITH ('target-file-size' = '128 MB',                     -- 设置目标文件大小'file.format' = 'avro',                            -- 文件格式为 Avro'file.compression' = 'snappy',                     -- 使用 Snappy 压缩'streaming.min-batch-interval' = '5 min'           -- 设置流处理最小批处理时间间隔为 5 分钟
);

在流式写入过程中,配置 Compact CoordinatorCompact Worker 以确保小文件自动合并。

流式查询配置(默认模式)

SET 'scan.startup.mode' = 'latest-offset';            -- 设置流式读取从最新的快照开始

流式查询配置(增量模式)

SET 'scan.mode' = 'incremental';                      -- 设置流式读取为增量模式
SET 'scan.snapshot-id' = '1234567890';                -- 可选:指定从特定快照 ID 开始
SET 'scan.timestamp-millis' = '1627849923000';        -- 可选:指定从特定时间戳(毫秒)开始

流式查询配置(带顺序要求)

CREATE TABLE ordered_stream_table (event_id BIGINT,event_time TIMESTAMP,event_data STRING
) WITH ('target-file-size' = '128 MB','file.format' = 'parquet','file.compression' = 'zstd','streaming.min-batch-interval' = '5 min','bucket-key' = 'event_time'                        -- 设置桶键(bucket-key)以确保数据按照时间顺序
);

技术优势及其实现

功能特性技术优势实现
流式写入通过灵活的配置选项,实现分钟级别低延迟的流式写入,并支持过滤和投影下推,提升查询效率。通过灵活的配置选项,优化数据流的写入路径,减少延迟,并通过下推操作提升查询效率。
自动小文件合并在流式处理过程中,动态管理文件大小,减少存储碎片,提高存储效率。使用动态文件管理策略,自动合并小文件,以优化存储空间和提高I/O效率。
流式读取支持从最新快照读取或增量读取,类似消息队列的使用,方便实时数据处理和分析。提供快照和增量读取功能,使得流式读取更加灵活,适用于实时数据处理场景。
顺序保证通过配置桶键,可以确保数据在需要顺序的情境下有序读取和写入,满足业务需求。通过桶键配置,实现数据的有序存储和检索,保证业务逻辑的顺序性。

4. 数据更新

4.1 查询

按顺序跳过数据

Paimon 默认在清单文件中记录每个字段的最大值和最小值。在查询时,根据查询的 WHERE 条件,通过清单中的统计信息进行文件过滤。如果过滤效果良好,查询时间可以从分钟级别加速到毫秒级别。

然而,数据分布并不总是能有效过滤,因此如果可以根据 WHERE 条件中的字段对数据进行排序,将会更高效。可以参考 Flink 的 COMPACT Action 或 COMPACT Procedure,以及 Spark 的 COMPACT Procedure。

-- 对数据进行排序以优化按顺序跳过数据的查询性能
ALTER TABLE my_table COMPACT BY (field_name);

按文件索引跳过数据

还可以使用文件索引,它将在读取端通过索引过滤文件。

CREATE TABLE my_table (product_id BIGINT,price DOUBLE,sales BIGINT
) WITH ('file-index.bloom-filter.columns' = 'product_id','file-index.bloom-filter.product_id.items' = '200'
);

定义 file-index.bloom-filter.columns 后,Paimon 将为每个文件创建相应的索引文件。如果索引文件太小,它将直接存储在清单中,否则将存储在数据文件的目录中。每个数据文件对应一个索引文件,该文件有独立的定义,可以包含不同类型的多列索引。

文件索引的应用场景

不同文件索引在不同场景下效率不同。例如:

  • 布隆过滤器(Bloom Filter):在点查找场景中可能加速查询。
  • 位图(Bitmap):可能消耗更多空间,但精度更高。

目前,文件索引仅支持附加表(Append-Only Table)。

布隆过滤器的配置

  • file-index.bloom-filter.columns:指定需要布隆过滤器索引的列。
  • file-index.bloom-filter.<column_name>.fpp:配置错误正率(False Positive Probability)。
  • file-index.bloom-filter.<column_name>.items:配置一个数据文件中预期的不同项目数量。

位图的配置

  • file-index.bitmap.columns:指定需要位图索引的列。

添加文件索引到现有表

如果你想在不重写的情况下添加文件索引,可以使用 rewrite_file_index 过程。在使用该过程之前,你应该在目标表中配置适当的配置。可以使用 ALTER 子句来配置 file-index.<filter-type>.columns

使用示例:添加文件索引到现有表

ALTER TABLE my_table
SET ('file-index.bloom-filter.columns' = 'product_id');CALL rewrite_file_index('my_table');

4.2 更新

目前,仅 Spark SQL 支持 DELETE 和 UPDATE 操作,可以参考 Spark Write 的相关文档。

DELETE FROM my_table
WHERE currency = 'UNKNOWN';

更新模式

附加表(Append Table)有两种更新模式:

  1. COW(Copy on Write)

    • 机制:搜索命中的文件,然后重新写入每个文件以移除需要删除的数据。
    • 成本:这种操作成本高,因为每次删除或更新都需要重新写入整个文件。
  2. MOW(Merge on Write)

    • 机制:通过指定 'deletion-vectors.enabled' = 'true',启用删除向量模式(Deletion Vectors)。只标记对应文件的某些记录为删除,并写入删除文件,而不需要重新写入整个文件。
    • 优势:相比 COW 模式,MOW 模式的删除和更新成本更低,因为只需写入小的删除文件,而不需要重写全部数据文件。

在创建或更新表时,可以启用删除向量模式:

CREATE TABLE my_table (product_id BIGINT,price DOUBLE,sales BIGINT
) WITH ('deletion-vectors.enabled' = 'true'
);

或在现有表上启用删除向量:

ALTER TABLE my_table
SET ('deletion-vectors.enabled' = 'true');

MOW 模式下的 DELETE 操作

DELETE FROM my_table
WHERE currency = 'UNKNOWN';

此操作将标记 currency 为 ‘UNKNOWN’ 的记录为删除,而不重写整个文件。

通过 Spark SQL 进行更新操作

val spark = SparkSession.builder().appName("UpdateExample").getOrCreate()// 启用删除向量
spark.sql("ALTER TABLE my_table SET ('deletion-vectors.enabled' = 'true')")// 执行 DELETE 操作
spark.sql("DELETE FROM my_table WHERE currency = 'UNKNOWN'")// 执行 UPDATE 操作
spark.sql("UPDATE my_table SET price = price * 1.1 WHERE product_id = 1001")

4.3 分桶附加表

您可以定义 bucketbucket-key 以创建一个分桶附加表。在这种表中,不同桶内的数据是严格有序的,流式读取将按写入顺序准确地传输记录。这样可以优化数据处理和查询性能。

--创建分桶附加表
CREATE TABLE my_table (product_id BIGINT,price DOUBLE,sales BIGINT
) WITH ('bucket' = '8','bucket-key' = 'product_id'
);

一个普通的附加表的流式写读取没有严格的顺序保证,但是有些情况下需要定义一个类似于 Kafka 的键。

  • 每个分桶中的记录都是严格有序的:流式读取将按写入顺序准确地传输记录。无需配置特殊的设置,所有数据将按队列形式进入一个桶内。

分桶中的压缩(Compaction in Bucket)

默认情况下,Sink 节点会自动执行压缩以控制文件数量。以下选项控制压缩策略:

KeyDefaultTypeDescription
write-onlyfalseBoolean如果设置为 true,将跳过压缩和快照过期操作。此选项与专用压缩作业一起使用。
compaction.min.file-num5Integer对文件集 [f_0,…,f_N],满足 sum(size(f_i)) >= targetFileSize 的最小文件数量以触发附加表的压缩。避免压缩几乎满的文件,因为这不合算。
compaction.max.file-num5Integer对文件集 [f_0,…,f_N],即使 sum(size(f_i)) < targetFileSize,也触发压缩的最大文件数量。此值避免过多小文件积压,减慢性能。
full-compaction.delta-commits(none)Integer在 delta 提交后会不断触发全量压缩。

流式读取顺序(Streaming Read Order)

对于流式读取,记录按以下顺序生产:

  • 跨分区记录:如果 scan.plan-sort-partition 设置为 true,则首先生产分区值较小的记录。否则,先生产创建时间较早的分区的记录。
  • 同分区同桶记录:首先生产先写入的记录。
  • 同分区不同桶记录:不同桶由不同任务处理,不保证顺序。

水印定义(Watermark Definition)

CREATE TABLE t (`user` BIGINT,product STRING,order_time TIMESTAMP(3),WATERMARK FOR order_time AS order_time - INTERVAL '5' SECOND
) WITH (...);

启动有界流任务读取 Paimon 表

SELECT window_start, window_end, COUNT(`user`) 
FROM TABLE(TUMBLE(TABLE t, DESCRIPTOR(order_time), INTERVAL '10' MINUTES)
) 
GROUP BY window_start, window_end;

还可以启用 Flink 水印对齐,确保没有来源/分片/分区的水印前进太快:

KeyDefaultTypeDescription
scan.watermark.alignment.group(none)String要对齐水印的一组源。
scan.watermark.alignment.max-drift(none)Duration对齐水印的最大漂移,在此漂移前暂停从源/任务/分区消费。

有界流(Bounded Stream)

流式来源(Streaming Source)也可以是有界的,可以通过指定 scan.bounded.watermark 来定义有界流模式的结束条件。

--创建 Kafka 表和启动流式插入及读取作业
CREATE TABLE kafka_table (`user` BIGINT,product STRING,order_time TIMESTAMP(3),WATERMARK FOR order_time AS order_time - INTERVAL '5' SECOND
) WITH ('connector' = 'kafka'...);-- 启动流式插入作业
INSERT INTO paimon_table 
SELECT * FROM kafka_table;-- 启动有界流任务读取 Paimon 表
SELECT * FROM paimon_table /*+ OPTIONS('scan.bounded.watermark'='...') */;

批处理(Batch)

分桶表可以在批处理查询中避免 shuffle,例如可以用以下 Spark SQL 读取 Paimon 表:

SET spark.sql.sources.v2.bucketing.enabled = true;CREATE TABLE FACT_TABLE (order_id INT, f1 STRING
) TBLPROPERTIES ('bucket'='10', 'bucket-key' = 'order_id');CREATE TABLE DIM_TABLE (order_id INT, f2 STRING
) TBLPROPERTIES ('bucket'='10', 'primary-key' = 'order_id');SELECT * 
FROM FACT_TABLE 
JOIN DIM_TABLE 
ON FACT_TABLE.order_id = DIM_TABLE.order_id;

通过设置 spark.sql.sources.v2.bucketing.enabled 为 true,Spark 将识别 V2 数据源报告的特定分布,并在必要时尝试避免 shuffle。如果两个表具有相同的分桶策略和相同数量的桶,昂贵的 join shuffle 操作将被避免。

5 总结

本文详细介绍了Apache Paimon中附加表的概念和应用。我们首先定义了什么是附加表,并比较了它与主键表的区别。接着,我们探讨了附加表在不同场景下的使用,包括批量写入和读取、对象存储的友好性、时间穿越和回滚功能、低成本的删除和更新操作、流式接收中小文件的自动合并、队列形式的流式读写以及高性能查询。此外,我们还详细介绍了流式处理的相关技术,包括自动小文件合并、流式查询的不同模式、顺序保证的重要性以及分桶附加表的优势。最后,我们讨论了数据更新策略,包括DELETE和UPDATE操作,以及如何通过配置优化查询性能。

如果你想参与讨论,请 点击这里👉https://github.com/hiszm/BigDataWeekly,每周都有新的主题,周末或周一发布。

大数据精读,探索知识的深度。

关注 大数据精读周刊

版权声明:自由转载-非商用-非衍生-保持署名([创意共享 3.0 许可证](https://creativecommons.org/licenses/by-nc-nd/3.0/deed.e

相关文章:

008.精读《Apache Paimon Docs - Table w/o PK》

文章目录 1. 引言2. 基本概念2.1 定义2.2 使用场景 3. 流式处理3.1 自动小文件合并3.2 流式查询 4. 数据更新4.1 查询4.2 更新4.3 分桶附加表 5 总结 1. 引言 通过本文&#xff0c;上篇我们了解了Apache Paimon 主键表&#xff0c;本期我们将继续学习附加表&#xff08;Append…...

在 Windows WSL 上部署 Ollama 和大语言模型:从镜像冗余问题看 Docker 最佳实践20241208

&#x1f6e0;️ 在 Windows WSL 上部署 Ollama 和大语言模型&#xff1a;从镜像冗余问题看 Docker 最佳实践 ⭐ 引言 随着大语言模型&#xff08;LLM&#xff09;和人工智能技术的迅猛发展&#xff0c;开发者们越来越多地尝试在本地环境中部署模型进行实验。 但部署过程中常…...

微信小程序uni-app+vue3实现局部上下拉刷新和scroll-view动态高度计算

微信小程序uni-appvue3实现局部上下拉刷新和scroll-view动态高度计算 前言 在uni-appvue3项目开发中,经常需要实现列表的局部上下拉刷新功能。由于网上相关教程较少且比较零散,本文将详细介绍如何使用scroll-view组件实现这一功能,包括动态高度计算、下拉刷新、上拉加载等完整…...

网络原理——HTTPS

一、什么是HTTPS 1.1 HTTPS的概念 HTTPS 也是⼀个应用层协议. 是在 HTTP 协议的基础上引入了一个加密层&#xff08;即HTTP SSL/TLS&#xff0c;SSL、TLS也是一个应用层协议&#xff0c;专门负责加密&#xff09; HTTP 协议内容都是按照文本的方式明文传输的. 这就导致在传输…...

数据结构之四:堆和二叉树

堆的实现:SData/Heap/heap.c Hera_Yc/bit_C_学习 - 码云 - 开源中国 树 树的概念 树&#xff1a;是一个非线性数据结构&#xff0c;它是由n&#xff08;n>0&#xff09;个有限结点组成一个具有层次关系的集合。 把它叫做树是因为它看起来像一棵倒挂的树&#xff0c;也就…...

语音识别flask接口开发

要开发一个flask语音识别接口&#xff0c;首先要解决语音文件在网络中的传输问题&#xff0c;然后选识别算法进行识别 文章目录 1、以二进制文件流方式上次语音2、网页端长连接流式上传语音文件3、语音识别接口 1、以二进制文件流方式上次语音 python服务端代码&#xff0c;以…...

MISRA C2012学习笔记(10)-Rules 8.15

文章目录 8.15 控制流(Control flow)Rule 15.1 不应使用 goto 语句Rule 15.2 goto 语句仅允许跳到在同一函数中声明的稍后位置的标签Rule 15.3 goto 语句引用的标签必须在 goto 语句所在代码块或包含该代码块的上级代码块中声明Rule 15.4 最多只能有一个用于终止循环语句的 bre…...

《深入浅出HTTPS》读书笔记(16):消息验证码算法分类

MAC算法有两种形式&#xff0c;分别是CBC-MAC算法和HMAC算法。 CBC-MAC算法从块密码算法的CBC分组模式演变而来&#xff0c;简单地说就是最后一个密文分组的值就是MAC值。 HMAC&#xff08;Hash-based Message Authentication Code&#xff09;算法使用Hash算法作为加密基元&am…...

DAY168内网对抗-基石框架篇单域架构域内应用控制成员组成用户策略信息收集环境搭建

知识点&#xff1a; 1、基石框架篇-单域架构-权限控制-用户和网络 2、基石框架篇-单域架构-环境搭建-准备和加入 3、基石框架篇-单域架构-信息收集-手工和工具 1、工作组(局域网) 将不同的计算机按照功能分别列入不同的工作组。想要访问某个部门的资源&#xff0c;只要在“…...

如何实现 3D GPR的仿真模拟

通过ai问题生成得到的。 1 模型文件-MATLAB 在gprmax中模拟3D GPR工作&#xff0c;可以通过编写一个MATLAB脚本来创建几何文件&#xff0c;并使用gprmax的输入文件&#xff08;in文件&#xff09;来设置模拟参数。以下是一个简单的例子程序&#xff0c;展示了如何创建一个3D …...

k8s 之 Deployment

&#xff08;1&#xff09;Deployment 作用是确保 Pod 副本数量&#xff0c;能够保证 Pod 数量与期望值一样&#xff0c;会有自恢复功能。简洁地说&#xff1a;具有 水平扩展 / 收缩 功能。 可能好奇的是在 kubernetes 中是谁在执行这些控制器的&#xff0c;它就是 kube-contr…...

现代C++ 6 声明

文章目录 C 中的冲突声明规则1. **对应声明&#xff08;Corresponding Declarations&#xff09;**2. **对应函数重载&#xff08;Corresponding Function Overloads&#xff09;**3. **对应函数模板重载&#xff08;Corresponding Function Template Overloads&#xff09;**4…...

Spark区分应用程序 Application、作业Job、阶段Stage、任务Task

目录 一、Spark核心概念 1、应用程序Application 2、作业Job 3、阶段Stage 4、任务Task 二、示例 一、Spark核心概念 在Apache Spark中&#xff0c;有几个核心概念用于描述应用程序的执行流程和组件&#xff0c;包括应用程序 Application、作业Job、阶段Stage、任务Task…...

【WebRTC】Android SDK使用教学

文章目录 前言PeerConnectionFactoryPeerConnection 前言 最近在学习WebRTC的时候&#xff0c;发现只有JavaScript的API文档&#xff0c;找了很久没有找到Android相关的API文档&#xff0c;所以通过此片文章记录下在Android应用层如何使用WebRTC 本篇文章结合&#xff1a;【W…...

算法-字符串-8.字符串转换整数

一、题目 二、思路解析 1.思路&#xff1a; 依次遍历&#xff0c;查看当前字符是否在规定范围内 2.常用方法&#xff1a; 1.trim(),去字符串的首尾空字符 ss.trim(); 2.substring(beginIndex),截断字符串&#xff0c;得到新的字符串是[1,s.length()-1] ss.substring(1); 3.st…...

普通算法——一维前缀和

一维前缀和 题目链接&#xff1a;https://www.acwing.com/problem/content/797/ 题目描述&#xff1a; 输入一个长度为 n 的整数序列。接下来再输入 m 个询问&#xff0c;每个询问输入一对 l,r。对于每个询问&#xff0c;输出原序列中从第 l 个数到第 r 个数的和。 **什么是…...

【Elasticsearch】ES+MySQL实现迷糊搜索

1. 技术选型 使用 Elasticsearch (ES) 结合 MySQL 进行数据存储和查询&#xff0c;而不是直接从 MySQL 中进行查询&#xff0c;主要是为了弥补传统关系型数据库&#xff08;如 MySQL&#xff09;在处理大规模、高并发和复杂搜索查询时的性能瓶颈。具体来说&#xff0c;ES 与 My…...

MacOS编译webRTC源码小tip

简单记录一下&#xff0c;本人在编译webRTC时&#xff0c;碰到了一下比较烦人的问题&#xff0c;在MacOS终端下&#xff0c;搭建科学上网之后&#xff0c;chromium的depot_tools仓库成功拉下来了&#xff0c;紧接着&#xff0c;使用fetch以及gclient sync始终都返回curl相关的网…...

Android显示系统(05)- OpenGL ES - Shader绘制三角形(使用glsl文件)

Android显示系统&#xff08;02&#xff09;- OpenGL ES - 概述 Android显示系统&#xff08;03&#xff09;- OpenGL ES - GLSurfaceView的使用 Android显示系统&#xff08;04&#xff09;- OpenGL ES - Shader绘制三角形 Android显示系统&#xff08;05&#xff09;- OpenGL…...

深度学习小麦头检测-基于Faster-RCNN的小麦头检测——附项目源码

比赛描述 为了获得有关全世界麦田的大量准确数据,植物科学家使用“小麦头”(包含谷物的植物上的穗)的图像检测。这些图像用于估计不同品种的小麦头的密度和大小。但是,在室外野外图像中进行准确的小麦头检测可能在视觉上具有挑战性。密集的小麦植株经常重叠,并且风会使照片…...

成像报告撰写格式

成像报告撰写格式 实验人员&#xff1a; 实验时间&#xff1a; 实验地点&#xff1a; 实验目的&#xff1a; 1实验仪器 1.1相机 包括制造商&#xff0c;型号&#xff0c;面阵还是线阵&#xff0c;彩色还是黑白&#xff0c;图像尺寸&#xff0c;光学接口等。 1.2镜头 包…...

【数学建模】线性规划问题及Matlab求解

问题一 题目&#xff1a; 求解下列线性规划问题 解答&#xff1a; 先将题目中求最大值转化为求最小值&#xff0c;则有 我们就可以得到系数列向量: 我们对问题中所给出的不等式约束进行标准化则得到了 就有不等式约束条件下的变系数矩阵和常系数矩阵分别为&#xff1a; 等式…...

C# 事件(Event)

文章目录 前言1、 声明委托2、 声明事件3、 触发事件4、订阅和取消订阅事件5、示例展示示例一&#xff1a;基础的事件使用流程示例二&#xff1a;简单数值变化触发事件示例三&#xff1a;锅炉系统相关事件应用 前言 在 C# 中&#xff0c;事件&#xff08;Event&#xff09;是一…...

企业数字化转型:从爆品起步,迈向生态平台

在当今数字化浪潮席卷全球的时代&#xff0c;企业数字化转型已成为必然趋势。然而&#xff0c;这条转型之路该如何走呢&#xff1f; 企业数字化转型的路径设计&#xff0c;绝不仅仅是技术的升级换代&#xff0c;它需要综合考量多方面因素。一方面&#xff0c;要为实现战略目标做…...

Windows 安装 MySQL

1.下载 MySQL 安装包 访问&#xff1a;MySQL :: Download MySQL Installer选择适合的版本。推荐下载 MySQL Installer for Windows&#xff0c;该安装包包含所有必要的组件选择 Windows (x86, 32-bit), MSI Installer 或 Windows (x86, 64-bit), MSI Installer 2.运行安装程序…...

游戏引擎学习第37天

仓库 : https://gitee.com/mrxiao_com/2d_game 回顾目前的进展 一个简单的调试工具——位图加载器&#xff0c;用于加载存储在硬盘上的位图文件。这个工具将文件加载到内存中&#xff0c;并查看文件头部信息&#xff0c;确保其正确性。接着使用位图头中的偏移量来获取像素数据…...

非常简单实用的前后端分离项目-仓库管理系统(Springboot+Vue)part 4

三十三、出入库管理 Header.vue导一下,RecordController加一个 //将入库数据和原有数据相加吧//新增PostMapping("/save")public Result save(RequestBody Record record) {return recordService.save(record) ? Result.success() : Result.fail();} GoodsManage.v…...

知乎Java后台开发面试题及参考答案

请简述 TCP 的三次握手和四次挥手过程。 TCP(传输控制协议)是一种面向连接的、可靠的、基于字节流的传输层通信协议。 三次握手过程 首先,客户端想要建立连接,会发送一个带有 SYN(同步序列号)标志的 TCP 报文段,这个报文段中还包含一个初始序列号(ISN,Initial Sequenc…...

Java中的String类用法详解

1.字符串拆分 可以把一个完整的字符串按照规定的分隔符拆分为若干个子字符串 String[] split(String regex) 将字符串全部拆分 String[] split(String regex,int limit) 将字符串以指定的格式拆分,拆分成limit组 实例:字符串的拆分处理 public class Main4 {public stat…...

mac电脑安装hadoop、hive等大数据组件

背景&#xff1a;用本地的Hadoop测试Java调用cmd命令 2024-12-08 13:48:19,826 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable ls: .: No such file or directory解决方案&#xff1a…...

DHCP和DNS

DHCP&#xff08;动态主机配置协议&#xff09;和DNS&#xff08;域名系统&#xff09;是计算机网络中两个重要的协议&#xff0c;它们在网络的管理和使用中发挥着关键作用。 DHCP&#xff08;动态主机配置协议&#xff09; 基本功能 自动分配IP地址&#xff1a;DHCP允许网…...

Postman安装使用教程

Postman&#xff08;接口测试工具&#xff09; ①、介绍 Postman是一款支持http协议的接口调试与测试工具&#xff0c;它不仅可以调试简单的css、html、脚本等简单的网页基本信息&#xff0c;还可以发送几乎所有类型的HTTP请求。 ②、安装 Ⅰ、运行安装包/官网直搜 Ⅱ、创建…...

剖析千益畅行,共享旅游-卡,合规运营与技术赋能双驱下的旅游新篇

在数字化浪潮席卷各行各业的当下&#xff0c;旅游产业与共享经济模式深度融合&#xff0c;催生出旅游卡这类新兴产品。然而&#xff0c;市场乱象丛生&#xff0c;诸多打着 “共享” 幌子的旅游卡弊病百出&#xff0c;让从业者与消费者都深陷困扰。今天&#xff0c;咱们聚焦技术…...

信创改造-达梦数据库配置项 dm.ini 优化

设置模式&#xff1a;兼容MySQL&#xff0c;COMPATIBLE_MODE 4 内存占比&#xff1a;90%&#xff0c;MAX_OS_MEMORY 90 目标内存&#xff1a;2G&#xff08;不影响申请内存超过2G&#xff0c;但这部分内存不会回收&#xff09;&#xff0c;MEMORY_TARGET 2000 参考 https:…...

docker入门 自记录

1.先自己下载离线bao .tar 或者 自己pull docker pull xxx 如果遇到网络问题就换源 2.之后run一个docker 后面是映射本地路径 sudo docker run -it --name ultralytics_241124 --gpus all --shm-size 8G -v /home/oppenheim/detect/train241204/docker:/home/docker ultralyti…...

Axure设计之动态图表——排名图(中继器)

粉丝问我可不可以用中继器做条形图&#xff0c;而且是要做成自动增长的排名图表。所以现在教大家怎么用axure来制作制作排名图。 这个原型制作完成之后&#xff0c;后期有类似的功能&#xff0c;直接拿过去使用也比较简单&#xff0c;基本只需要修改中继器数据就可以了。喜欢、…...

在Java中几种常用数据压缩算法的实现及其优劣势

在Java中几种常用数据压缩算法的实现及其优劣势 背景&#xff1a;项目需要引入Redis作为缓存组件&#xff0c;需要考虑到Redis的内存占用&#xff08;机器内存越大&#xff0c;成本越高&#xff09;&#xff0c;因此需要引入数据压缩。 1、介绍 数据压缩是计算机领域中一项重要…...

Mac通过Windows App远程访问windows电脑报错0x104的解决办法

1、远程windows电脑&#xff0c;确保打开 远程访问 2、Mac电脑上的配置&#xff1a; 2.1 新版的windows app远程桌面软件相比之前老的Microsoft Remote Desktop&#xff0c;对于mac来说&#xff0c;不会弹出“是否允许该app查找本地网络设备”&#xff0c;需要手动打开 操作步…...

Spring Boot接口返回统一格式

统一的标准数据格式好处 SpringBoot返回统一的标准数据格式主要有以下几点好处&#xff1a; 增强接口的可读性和可维护性&#xff0c;使得前端开发人员能够更加清晰地理解接口返回的数据结构&#xff0c;从而提高开发效率。 降低前后端耦合度&#xff0c;当后端需要修改返回数…...

小程序入门学习(八)之页面事件

一、下拉刷新新事件 1. 什么是下拉刷新 下拉刷新是移动端的专有名词&#xff0c;指的是通过手指在屏幕上的下拉滑动操作&#xff0c;从而重新加载页面数据的行为。 2. 启用下拉刷新 启用下拉刷新有两种方式&#xff1a; 全局开启下拉刷新&#xff1a;在 app.json 的 window…...

Docker基础【windows环境】

课程内容来自尚硅谷3小时速通Docker教程 1. Docker简介 Docker 通过 Docker Hub 实现一行命令安装应用&#xff08;镜像&#xff09;【Nginx&#xff0c;Mysql等】&#xff0c;避免繁琐的部署操作。同时通过轻量级&#xff08;相对于虚拟机&#xff09;的容器化的思想&#x…...

【docker】docker compose 和 docker swarm

Docker Compose 和 Docker Swarm 都是 Docker 生态中的工具&#xff0c;但它们有不同的用途和目标。 下面是这两者的主要区别&#xff0c;帮助你理解它们在不同场景中的使用。 1. 用途和目标 Docker Compose: 目标&#xff1a;主要用于在单个机器上定义和运行多个容器应用&a…...

第三部分:进阶概念 7.数组与对象 --[JavaScript 新手村:开启编程之旅的第一步]

第三部分&#xff1a;进阶概念 7.数组与对象 --[JavaScript 新手村&#xff1a;开启编程之旅的第一步] 在 JavaScript 中&#xff0c;数组和对象是两种非常重要的数据结构&#xff0c;它们用于存储和组织数据。尽管它们都属于引用类型&#xff08;即它们存储的是对数据的引用而…...

LabVIEW密码保护与反编译的安全性分析

在LabVIEW中&#xff0c;密码保护是一种常见的源代码保护手段&#xff0c;但其安全性并不高&#xff0c;尤其是在面对专业反编译工具时。理论上&#xff0c;所有软件的反编译都是可能的&#xff0c;尽管反编译不一定恢复完全的源代码&#xff0c;但足以提取程序的核心功能和算法…...

Docker魔法:用docker run -p轻松开通容器服务大门

前言 “容器”与“虚拟化”作为现代软件开发和运维中的关键概念,已经广泛应用于各个技术领域。然而,在使用 Docker 部署应用时,常常会遇到这样的问题:容器正常运行,却无法让外界访问其内部服务?即使容器内的应用顺利启动,外部无法通过浏览器或 API 进行连接。此时,doc…...

ubuntu防火墙(三)——firewalld使用与讲解

本文是Linux下&#xff0c;用ufw实现端口关闭、流量控制(二) firewalld使用方式 firewalld 是一个动态管理防火墙的工具&#xff0c;主要用于 Linux 系统&#xff08;包括 Ubuntu 和 CentOS 等&#xff09;。它提供了一个基于区域&#xff08;zones&#xff09;和服务&#x…...

【大数据技术基础 | 实验十一】Hive实验:新建Hive表

文章目录 一、实验目的二、实验要求三、实验原理四、实验环境五、实验内容和步骤&#xff08;一&#xff09;启动Hive&#xff08;二&#xff09;创建表&#xff08;三&#xff09;显示表&#xff08;四&#xff09;显示表列&#xff08;五&#xff09;更改表&#xff08;六&am…...

Python实现Excel中数据条显示

Python中要实现百分比数据条的显示&#xff0c;可以使用pandas库&#xff0c;pandas图表样式的设置与Excel中的条件格式设置比较类似&#xff0c;比如Excel里常用的数据条的用法&#xff0c;在pandas中使用代码进行高亮显示&#xff0c;用来突出重点数据&#xff0c;下面一起来…...

矩阵与向量的基本概念

**一、四个基本子空间的定义** 1. **行空间&#xff08;Row Space&#xff09;** 行空间是由矩阵的所有行向量所形成的空间。它包含所有可能的行向量的线性组合。行空间的维度称为矩阵的行秩。 2. **零空间&#xff08;Null Space&#xff09;** 零空间是与矩阵相乘后结果为零的…...

亚马逊云科技大语言模型加速OCR应用场景发展

目录 前言Amazon Bedrock关于OCR解决方案Amazon Bedrock进行OCR关键信息提取方案注册亚马逊账号API调用环境搭建 总结 前言 大语言模型是一种基于神经网络的自然语言处理技术&#xff0c;它能够学习和预测自然语言文本中的规律和模式&#xff0c;可以理解和生成自然语言的人工…...