Dify中的文本分词处理技术详解
Dify中的文本分词处理技术详解
- 引言
- 核心架构概览
- 索引处理器工厂
- 文本分词技术详解
- 基础分词器
- 增强型递归字符分词器
- 固定分隔符文本分词器
- 递归分割算法
- 索引处理器中的分词应用
- 特殊索引处理器的分词特点
- 问答索引处理器
- 父子索引处理器
- 分词技术的应用场景
- 技术亮点与优势
- 总结
引言
在现代RAG(检索增强生成)系统中,文本分词(Text Splitting)是一个至关重要的环节。它直接影响到检索的精度和生成内容的质量。本文将深入解析Dify项目中的文本分词处理技术,探讨其实现原理、核心算法和应用场景。
核心架构概览
Dify采用了工厂模式和策略模式来实现灵活的文本处理流程。整个文本处理架构主要包含两个核心部分:
- 索引处理器(Index Processor):负责文档的提取、转换和加载
- 文本分词器(Text Splitter):负责将长文本切分成适合处理的小块
索引处理器工厂
索引处理器工厂(IndexProcessorFactory)是创建不同类型索引处理器的核心类,它通过工厂模式实现了对不同索引处理策略的封装和创建:
class IndexProcessorFactory:"""IndexProcessorInit."""def __init__(self, index_type: str | None):self._index_type = index_typedef init_index_processor(self) -> BaseIndexProcessor:"""Init index processor."""if not self._index_type:raise ValueError("Index type must be specified.")if self._index_type == IndexType.PARAGRAPH_INDEX:return ParagraphIndexProcessor()elif self._index_type == IndexType.QA_INDEX:return QAIndexProcessor()elif self._index_type == IndexType.PARENT_CHILD_INDEX:return ParentChildIndexProcessor()else:raise ValueError(f"Index type {self._index_type} is not supported.")
该工厂类支持三种索引处理器:
- 段落索引处理器(ParagraphIndexProcessor):将文档分割成段落级别的块
- 问答索引处理器(QAIndexProcessor):专门处理问答格式的文本
- 父子索引处理器(ParentChildIndexProcessor):创建层次化的文档结构
文本分词技术详解
基础分词器
Dify的分词系统建立在抽象基类TextSplitter
之上,它定义了分词的基本接口:
@abstractmethod
def split_text(self, text: str) -> list[str]:"""Split text into multiple components."""
所有具体的分词器都必须实现这个方法,以提供特定的分词逻辑。
增强型递归字符分词器
EnhanceRecursiveCharacterTextSplitter
是一个关键的分词器实现,它通过递归方式处理文本,并支持使用不同的编码器计算token数量:
class EnhanceRecursiveCharacterTextSplitter(RecursiveCharacterTextSplitter):"""This class is used to implement from_gpt2_encoder, to prevent using of tiktoken"""@classmethoddef from_encoder(cls: type[TS],embedding_model_instance: Optional[ModelInstance],allowed_special: Union[Literal["all"], Set[str]] = set(),disallowed_special: Union[Literal["all"], Collection[str]] = "all",**kwargs: Any,):def _token_encoder(texts: list[str]) -> list[int]:if not texts:return []if embedding_model_instance:return embedding_model_instance.get_text_embedding_num_tokens(texts=texts)else:return [GPT2Tokenizer.get_num_tokens(text) for text in texts]# ... 其他代码 ...return cls(length_function=_token_encoder, **kwargs)
这个分词器的特点是可以使用嵌入模型的tokenizer或默认的GPT2 tokenizer来计算文本长度,避免了对tiktoken的依赖。
固定分隔符文本分词器
FixedRecursiveCharacterTextSplitter
是一个更为专业的分词器,它在增强型递归分词器的基础上,增加了对固定分隔符的支持:
class FixedRecursiveCharacterTextSplitter(EnhanceRecursiveCharacterTextSplitter):def __init__(self, fixed_separator: str = "\n\n", separators: Optional[list[str]] = None, **kwargs: Any):"""Create a new TextSplitter."""super().__init__(**kwargs)self._fixed_separator = fixed_separatorself._separators = separators or ["\n\n", "\n", " ", ""]def split_text(self, text: str) -> list[str]:"""Split incoming text and return chunks."""if self._fixed_separator:chunks = text.split(self._fixed_separator)else:chunks = [text]final_chunks = []chunks_lengths = self._length_function(chunks)for chunk, chunk_length in zip(chunks, chunks_lengths):if chunk_length > self._chunk_size:final_chunks.extend(self.recursive_split_text(chunk))else:final_chunks.append(chunk)return final_chunks
这个分词器的工作流程如下:
- 首先使用固定分隔符(默认为
\n\n
)将文本分割成初步的块 - 对每个块计算token长度
- 如果块的长度超过了设定的最大长度(
_chunk_size
),则调用recursive_split_text
方法进一步分割 - 否则直接将块添加到最终结果中
递归分割算法
recursive_split_text
方法是固定分隔符分词器的核心,它实现了复杂的递归分割逻辑:
def recursive_split_text(self, text: str) -> list[str]:"""Split incoming text and return chunks."""final_chunks = []separator = self._separators[-1]new_separators = []# 寻找最合适的分隔符for i, _s in enumerate(self._separators):if _s == "":separator = _sbreakif _s in text:separator = _snew_separators = self._separators[i + 1 :]break# 使用找到的分隔符分割文本if separator:if separator == " ":splits = text.split()else:splits = text.split(separator)else:splits = list(text)splits = [s for s in splits if (s not in {"", "\n"})]# ... 处理分割后的文本块 ...
该算法的精妙之处在于:
- 它会按照优先级顺序尝试不同的分隔符(如
\n\n
,\n
,""
) - 一旦找到文本中存在的分隔符,就使用它进行分割
- 如果当前分隔符分割后的块仍然过大,会使用下一级别的分隔符继续分割
- 最终确保所有文本块都不超过指定的最大token数量
索引处理器中的分词应用
在实际应用中,索引处理器会根据处理规则选择合适的分词器。以ParagraphIndexProcessor
为例,它在transform
方法中使用分词器处理文档:
def transform(self, documents: list[Document], **kwargs) -> list[Document]:# ... 其他代码 ...splitter = self._get_splitter(processing_rule_mode=process_rule.get("mode"),max_tokens=rules.segmentation.max_tokens,chunk_overlap=rules.segmentation.chunk_overlap,separator=rules.segmentation.separator,embedding_model_instance=kwargs.get("embedding_model_instance"),)all_documents = []for document in documents:# 文档清洗document_text = CleanProcessor.clean(document.page_content, kwargs.get("process_rule", {}))document.page_content = document_text# 解析文档为节点document_nodes = splitter.split_documents([document])# ... 处理分割后的节点 ...
分词器的选择逻辑在_get_splitter
方法中实现:
def _get_splitter(self,processing_rule_mode: str,max_tokens: int,chunk_overlap: int,separator: str,embedding_model_instance: Optional[ModelInstance],) -> TextSplitter:"""Get the NodeParser object according to the processing rule."""if processing_rule_mode in ["custom", "hierarchical"]:# 用户自定义分割规则# ... 参数验证 ...character_splitter = FixedRecursiveCharacterTextSplitter.from_encoder(chunk_size=max_tokens,chunk_overlap=chunk_overlap,fixed_separator=separator,separators=["\n\n", "。", ". ", " ", ""],embedding_model_instance=embedding_model_instance,)else:# 自动分割character_splitter = EnhanceRecursiveCharacterTextSplitter.from_encoder(chunk_size=DatasetProcessRule.AUTOMATIC_RULES["segmentation"]["max_tokens"],chunk_overlap=DatasetProcessRule.AUTOMATIC_RULES["segmentation"]["chunk_overlap"],separators=["\n\n", "。", ". ", " ", ""],embedding_model_instance=embedding_model_instance,)return character_splitter
这里的逻辑很清晰:
- 对于自定义或层次化处理模式,使用
FixedRecursiveCharacterTextSplitter
,允许指定固定分隔符 - 对于自动处理模式,使用
EnhanceRecursiveCharacterTextSplitter
,采用预设的参数
特殊索引处理器的分词特点
问答索引处理器
QAIndexProcessor
针对问答格式的文本有特殊的处理逻辑:
def _format_split_text(self, text):regex = r"Q\d+:\s*(.*?)\s*A\d+:\s*([\s\S]*?)(?=Q\d+:|$)"matches = re.findall(regex, text, re.UNICODE)return [{"question": q, "answer": re.sub(r"\n\s*", "\n", a.strip())} for q, a in matches if q and a]
它使用正则表达式识别问题和答案的模式,将文本转换为结构化的问答对。
父子索引处理器
ParentChildIndexProcessor
实现了层次化的文档处理,它会先将文档分割成父节点,然后对每个父节点进一步分割成子节点:
def _split_child_nodes(self,document_node: Document,rules: Rule,process_rule_mode: str,embedding_model_instance: Optional[ModelInstance],) -> list[ChildDocument]:# ... 获取子块分割规则 ...child_splitter = self._get_splitter(processing_rule_mode=process_rule_mode,max_tokens=rules.subchunk_segmentation.max_tokens,chunk_overlap=rules.subchunk_segmentation.chunk_overlap,separator=rules.subchunk_segmentation.separator,embedding_model_instance=embedding_model_instance,)# 解析文档为子节点child_nodes = []child_documents = child_splitter.split_documents([document_node])# ... 处理子节点 ...
这种层次化的处理方式特别适合处理结构复杂的长文档,可以保留文档的层次关系。
分词技术的应用场景
Dify中的分词技术主要应用于以下场景:
- 文档索引:将长文档分割成适合检索的小块
- 问答生成:识别和提取文本中的问答对
- 层次化处理:保留文档的层次结构,提高检索精度
- 自定义分割:根据用户需求定制分割策略
技术亮点与优势
- 灵活的工厂模式:通过工厂模式实现了索引处理器的灵活创建和管理
- 多级分隔符策略:采用优先级排序的分隔符列表,适应不同类型的文本
- 递归分割算法:确保分割后的文本块不超过指定的token限制
- 模型无关的token计算:支持使用不同的embedding模型计算token数量
- 自定义与自动模式:同时支持用户自定义分割规则和智能自动分割
总结
Dify的文本分词处理系统展示了一个设计良好的文本处理框架。它通过抽象接口、工厂模式和策略模式,实现了高度灵活和可扩展的文本分割功能。这些技术不仅提高了RAG系统的检索精度,也为开发者提供了丰富的自定义选项。
对于需要构建自己的RAG系统的开发者来说,Dify的分词处理技术提供了很好的参考和借鉴。特别是其递归分割算法和多级分隔符策略,是解决长文本处理问题的有效方案。
相关文章:
Dify中的文本分词处理技术详解
Dify中的文本分词处理技术详解 引言核心架构概览索引处理器工厂 文本分词技术详解基础分词器增强型递归字符分词器固定分隔符文本分词器递归分割算法 索引处理器中的分词应用特殊索引处理器的分词特点问答索引处理器父子索引处理器 分词技术的应用场景技术亮点与优势总结 引言 …...
Linux之netlink(2)libnl使用介绍(1)
Linux之netlink(2)Libnl3使用介绍(1) Author:Onceday Date:2025年4月26日 漫漫长路,才刚刚开始… 全系列文章可查看专栏: Linux内核知识_Once-Day的博客-CSDN博客 本文翻译自libnl3官方文档:Netlink Library (libnl) 参考文档…...
【2025 最新前沿 MCP 教程 04】通信渠道:理解 MCP 传输机制
文章目录 1. 开始啦!2. 本地集成与标准输入输出(stdio)3. 通过 HTTP 实现 SSE(服务器发送事件)的远程通信4. 展望未来:向可流式 HTTP 的过渡 1. 开始啦! 在第三章中,我们解析了模型…...
Qt Charts 绘制曲线图示例
Qt Charts 绘制曲线图示例 Qt Charts 是 Qt 的图表模块,可用于绘制折线图、曲线图等。以下是实现步骤: 1. 配置项目文件 在 .pro 文件中添加 Charts 模块: QT charts2. 创建基础图表 #include <QtCharts>// 创建图表视图和图表对…...
统计学_一元线性回归知识点梳理
1 变量间关系的度量 1.1 变量间的关系 (1)相关关系:变量之间是不确定的数量关系,比如农作物产量和施肥量的关系。(2)函数关系:变量之间是一一确定的对应的关系,y 完全依赖于 x。 …...
【计算机视觉】CV项目实战- 深度解析TorchVision_Maskrcnn:基于PyTorch的实例分割实战指南
深度解析TorchVision_Maskrcnn:基于PyTorch的实例分割实战指南 技术背景与核心原理Mask R-CNN架构解析项目特点 完整实战流程环境准备硬件要求软件依赖 数据准备与标注1. 图像采集2. 数据标注3. 数据格式转换 模型构建与训练1. 模型初始化2. 数据加载器配置3. 训练优…...
数据分析岗位-相关知识
数据分析岗位 1.大数据2.业务(朴素理念) 1.大数据 数据流向 :MySQL等传统业务数据(结构、半结构、非结构) → ETL → 数据仓库 / 数据计算 → BI(BI也提供计算能力) sequenceDiagramMySQL->…...
使用 Truffle 和 Ganache 搭建本地以太坊开发环境并部署一个简单智能合约
使用 Truffle 和 Ganache 搭建本地以太坊开发环境并部署一个简单智能合约的详细步骤: 一、环境搭建 安装 Node.js 和 npm Node.js 是一个基于 Chrome V8 引擎的 JavaScript 运行时环境,npm 是 Node.js 的包管理器。可以从 Node.js 官方网站下载安装程序…...
Set的学习
1. Set是继承自Collection的一个接口类 2. Set中只存储了key,并且要求key一定要唯一 3. TreeSet的底层是使用Map来实现的,其使用key与Object的一个默认对象作为键值对插入到Map中的 4. Set最大的功能就是对集合中的元素进行去重 5. 实现Set接口的常用…...
Python爬虫实战:获取高考资源网各学科精品复习资料
一、引言 高考资源网拥有丰富的高考复习资料,对于我们而言,获取这些资源并整理分享能为考生提供有价值的帮助。然而,手动从网站查找和下载资源效率低且易出错。利用 Python 爬虫技术可实现自动化资源获取,提高工作效率。但在爬取过程中,需考虑网站反爬机制,采取相应措施…...
Linux下编译并打包MNN项目迁移至其他设备
1. 构建项目结构 该项目是利用MNN框架对MTCNN网络进行推理,实现对目标的实时检测 运行环境:Linux 相关库:opencv,MNN 先给出项目的总体结构,如下: mtcnn_mnn/ ├── include/ │ ├── opencv2/ …...
WPF框架中异步、多线程、高性能、零拷贝技术的应用示例
WPF框架中异步、多线程、高性能与零拷贝技术应用示例 一、异步编程在WPF中的应用 1. 异步数据加载(避免UI冻结) // ViewModel中的异步数据加载示例 public class MainViewModel : INotifyPropertyChanged {private ObservableCollection<string> _items;public Obse…...
SpringBoot实现的后端开发
目录 一、设计阶段 1.设计ER图 2.创建数据库表 二、项目环境搭建 1.创建项目 2.在pom.xml中添加依赖 3.配置数据库连接 4.状态码的封装 5.开发自定义异常 6.密码加密 7.规范时间格式展示 8.添加Guava本地缓存 9.JWT 三、构建项目开发 1.创建项目结构 2.开发实…...
IntelliJ IDEA修改实体类成员变量的名称(引入了该实体类的全部文件也会自动更新变量的名称)
文章目录 1. 问题引入2. 修改实体类成员变量的名称2.1 鼠标双击要修改的变量2.2 按下SHIFT F6快捷键 更多 IntelliJ IDEA 的使用技巧可以查看 IntelliJ IDEA 专栏: IntelliJ IDEA 1. 问题引入 在使用IntelliJ IDEA开发项目时,你是否遇到过以下难题 需…...
Weaviate使用入门:从零搭建向量数据库的完整指南
一、Weaviate简介与核心优势 Weaviate是一款开源向量搜索引擎,专为存储和检索高维向量数据设计,支持文本、图像等多种媒体类型。其核心功能包括语义搜索、问答提取、分类等,具备以下独特优势: 低延迟:毫秒级响应时间…...
element ui el-col的高度不一致导致换行
问题:ell-col的高度不一致导致换行,刷新后审查el-col的高度一致 我这边是el-col写的span超过了24,自行换行,测试发现初次进入里面的高度渲染的不一致,有的是51px有的是51.5px 问题原因分析 Flex布局换行机制 Elemen…...
Windows 安装 MongoDB 教程
Windows 安装 MongoDB 教程 MongoDB 是一个开源的 NoSQL 数据库,它使用文档存储模型而不是传统的关系表格。它非常适合需要处理大量数据并且需要高性能、可扩展性的应用场景。下面是如何在 Windows 系统上安装 MongoDB 的详细步骤。 一、准备工作 确保你的 Windo…...
23种设计模式-行为型模式之观察者模式(Java版本)
Java 观察者模式(Observer Pattern)详解 🧠 什么是观察者模式? 观察者模式是一种行为型设计模式,定义对象之间的一种一对多的依赖关系,使得每当一个对象状态发生变化时,所有依赖它的对象都会得…...
从“拼凑”到“构建”:大语言模型系统设计指南!
你有没有试过在没有说明书的情况下组装宜家家具?那种手忙脚乱却又充满期待的感觉,和设计大语言模型(LLM)系统时如出一辙。如果没有一个清晰的计划,很容易陷入混乱。我曾经也一头扎进去,满心期待却又手足无措,被网上那些复杂的架构图搞得晕头转向。于是,我坐下来,把它们…...
云原生--核心组件-容器篇-3-Docker三大核心之--镜像
1、定义与作用 定义: Docker镜像是一个只读的模板,包含运行应用程序所需的所有内容,包括代码、依赖库、环境变量、配置文件等。简单来说,Docker镜像是一个轻量级、独立、可执行的软件包,它包含了运行某个软件所需的所有…...
在QML中获取当前时间、IP和位置(基于网络请求)
目录 引言相关阅读最终效果代码详解1. 基础框架与窗口设置2. IP定位功能实现3. IP获取功能4. 时间更新与应用初始化5. 用户界面布局 总结工程下载 引言 在本文中,我们将探讨如何使用Qt Quick构建一个简单的系统信息显示应用。该应用能够获取当前系统时间、IP地址以…...
Nuxt3中使用UnoCSS指南
Nuxt3中使用UnoCSS指南 UnoCSS是一个高度可定制的、原子化CSS引擎,可以轻松集成到Nuxt3项目中。下面介绍如何在Nuxt3中安装和配置UnoCSS。 安装步骤 安装UnoCSS的Nuxt模块: # 使用pnpm pnpm add -D unocss unocss/nuxt# 使用yarn yarn add -D unocss…...
【计算机网络】TCP的四种拥塞控制算法
TCP(传输控制协议)是互联网协议套件中用于在网络中两个主机之间提供可靠、有序和错误检测数据传输的协议。TCP使用拥塞控制机制来避免网络拥塞,确保网络资源的有效利用。以下是TCP中常见的四种拥塞控制算法: 慢启动(S…...
WebAssembly全栈革命:在Rust与JavaScript之间构建高性能桥梁
一、WASM的全栈渗透图谱 1. 性能临界点的突破 // Rust实现的斐波那契计算 #[wasm_bindgen] pub fn wasm_fib(n: i32) -> i32 {match n {0 > 0,1 > 1,_ > wasm_fib(n-1) wasm_fib(n-2)} }// JavaScript等效实现对比 console.time(js); jsFib(40); // 1024ms cons…...
深度理解linux系统—— 了解操作系统
一、冯诺依曼体系结构 现在我们常见的计算机(笔记本电脑等)和不常见的计算机(服务器)它们都满足冯诺依曼体系。 我们可以把计算机理解成一个个硬件组成的 输入设备:键盘、鼠标、摄像头、网卡、磁盘等输出设备…...
【fork初体验】
文章目录 Linux 实验:深入理解 fork 系统调用一、实验目的二、实验环境三、实验内容与步骤(一)打印进程的进程 ID 和父进程 ID1. 编写程序2. 编译与运行3. 运行结果 (二)使用 fork 系统调用创建进程并加入循环语句1. 编…...
区块链VS传统数据库:金融数据存储的“信任”与“效率”博弈
在金融行业数字化转型的浪潮中,数据存储技术选型已成为核心议题。区块链技术凭借其去中心化、不可篡改等特性强势崛起,而传统数据库(如关系型数据库MySQL、分布式数据库)凭借成熟生态和高效性能仍占据主导地位。如何在两者之间做出…...
Linux渗透测试
Linux渗透测试 比赛题库-Linux渗透测试 文章目录 Linux渗透测试比赛题库-Linux渗透测试 前言一、解题过程1.通过本地PC中渗透测试平台Kali对靶机场景进行系统服务及版本扫描渗透测试,并将该操作显示结果中Apache服务对应的版本信息字符串作为Flag值提交;…...
ORA-02069错误排查实录:从 Database Link 到 Global Names 的陷阱
文章目录 错误重现根因解决方案1.设置GLOBAL_NAMEStrue2.全部业务逻辑放在在远端执行 在日常的 Oracle 数据同步任务中,我们经常透过 Database Link(DBLink) 进行跨数据库查询与写入。某日,我们在执行一段 INSERT INTO … SELECT …...
【CF闯关练习】—— 1200分
🌏博客主页:PH_modest的博客主页 🚩当前专栏:cf闯关练习 💌其他专栏: 🔴每日一题 🟡 C跬步积累 🟢 C语言跬步积累 🌈座右铭:广积粮,缓…...
正则表达式三剑客之——grep和sed
目录 一.grep 1.1定义 1.2核心功能 1.3基本语法 1.4常用选项 二.sed 2.1 定义 2.2 工作原理 2.3 基本语法 2.3.1常用选项 2.3.2sed自身脚本语法 1. 基本组成 2. 地址 3. 命令 2.3.3 sed替换查找 1 基本语法 2.sed替换查找的实例 3.分组后向引用 4 变量调…...
i18n-ai-translate开源程序,可以使用DeepSeek等模型将您的 i18nJSON翻译成任何语言
一、软件介绍 文末提供程序和源码下载 i18n-ai-translate开源程序使用 DeepSeek等模型可以将您的 i18n JSON 翻译成任何语言。 无缝翻译本地化文件。支持嵌套翻译文件的目录。需要i18next样式的JSON 文件(文末一并提供下载)。 二、模式 CSV 模式 三个…...
关于Android Studio的Gradle各项配置
Gradle 构建概览 Android 应用通常使用 Gradle 构建系统构建。在深入了解如何配置 build 之前,我们先来探索 build 背后的概念,以便您全面了解系统。 什么是 build? 构建系统会将源代码转换为可执行应用。构建通常涉及多个工具,用…...
数据安全和合规性市场分析
一、什么是数据安全和合规性 在数据安全和合规性方面,存在着一系列重要的法律、法规和行业标准,这些规定了组织如何收集、存储、处理和保护个人数据及其他敏感信息。企业之所以要遵守这些规定,是出于多方面的考量,既有法律责任&a…...
venv环境基础指令以及常见问题汇总(持续更新)
常见指令 在 Python 原生虚拟环境(venv) 中,没有直接列出所有虚拟环境的命令(因为 venv 不像 Conda 那样有集中管理机制),但可以通过 文件操作 或 脚本 实现类似功能。以下是常用命令和技巧: &…...
思科路由器重分发(RIP动态路由+静态路由)
路由器重分发(RIP动态路由静态路由) 静态路由不能作翻译官 RIP需要宣告自己的ip;还需要帮静态路由也宣告一下开启端口并配置IP地址 RIP路由 Router>en Router#conf t Router(config)#int g0/0 Router(config-if)#no shutdown Router(c…...
产销协同的作用是什么?又如何对各部门发挥作用?
目录 一、产销协同的对象有哪些? 1. 客户需求 2. 市场趋势 3. 供应链伙伴 4. 企业战略目标 二、产销协同的作用是什么? 1. 提高客户满意度 2. 降低企业成本 3. 增强市场竞争力 4. 优化资源配置 三、产销协同对各部门怎么发挥作用?…...
19.【.NET 8 实战--孢子记账--从单体到微服务--转向微服务】--单体转微服务--当前项目拆分规划
随着业务规模的不断扩大和系统复杂度的提升,孢子记账系统需要进行微服务架构的转型。本文将详细规划从单体应用向微服务架构迁移的具体方案,包括功能模块分析、服务拆分、技术选型以及实施步骤等内容。通过合理的服务拆分和架构设计,未来我们…...
JFLAP SOFTWARE 编译原理用(自动机绘图)
csdn全是蛆虫,2mb的软件,都在那里搞收费,我就看不惯,我就放出来,那咋了!!! https://pan.baidu.com/s/1IuEfHScynjCCUF5ScF26KA 通过网盘分享的文件:JFLAP7.1.jar 链接: h…...
从 Vue 到 React:React 合成事件
目录 一、什么是 React 合成事件?二、处理流程React 事件系统的大致流程和 Vue 3 的区别 三、用法示例四、SyntheticEvent 的特点五、为什么 React 要统一事件到根节点?1.减少事件监听器数量2. 简化事件解绑逻辑3. 保证一致的行为 六、React 18 后事件系…...
react的fiber 用法
在 React 里,Fiber 是 React 16.x 及后续版本采用的协调算法,它把渲染工作分割成多个小任务,让 React 可以在渲染过程中暂停、恢复和复用任务,以此提升渲染性能与响应能力。在实际开发中,你无需直接操作 Fiber 节点&am…...
深度学习-学习笔记
文章目录 1、概述2、学习笔记2.1、pytorch 的环境配置 1、概述 本篇博客用来记录我学习深度学习的学习笔记 参考视频:PyTorch深度学习快速入门教程 PyTorch 是一个开源的机器学习框架,主要用于构建和训练深度学习模型。 2、学习笔记 2.1、pytorch 的环…...
[创业之路-390]:人力资源 - 社会性生命系统的解构与重构:人的角色嬗变与组织进化论
前言: 人、财、物、信息、机制、流程、制度、方法共同组合了一个持续的消耗资源、持续的价值创造、持续面临生存与发展、遗传与变异的社会性生命系统。 "人"是所有社会性生命系统最最基础性的要素,它弥漫在系统中多维立体空间的不同节点上&am…...
Redis常见面试题——List对象
当然可以!这里我帮你整理了一份【Redis中 List 结构】相关的高频面试题,并附上简明回答: 📚 Redis List 结构面试题(高频总结版) 1. Redis 中的 List 是什么?底层是什么实现的? 答&…...
案例速成GO操作redis,个人笔记
更多个人笔记:(仅供参考,非盈利) gitee: https://gitee.com/harryhack/it_note github: https://github.com/ZHLOVEYY/IT_note 安装redis客户端:go get github.com/redis/go-redis/v9 注意go …...
什么是WebSocket?NGINX如何支持WebSocket协议?
大家好,我是锋哥。今天分享关于【什么是WebSocket?NGINX如何支持WebSocket协议?】面试题。希望对大家有帮助; 什么是WebSocket?NGINX如何支持WebSocket协议? 1000道 互联网大厂Java工程师 精选面试题-Java…...
ssm驾校预约管理系统的设计与实现(源码+lw+部署文档+讲解),源码可白嫖!
摘要 伴随着我国社会的发展,人民生活质量日益提高。在人们出行方式上的体现就是,价格较为昂贵的代步工具——汽车,它的拥有率在我国越来越高了。而汽车的行驶速度很快,并且随着汽车拥有率的增加,城市中行驶和停靠的车…...
babel核心知识点
Babel 是一个 JavaScript 编译器,主要用于将 ECMAScript 2015 版本的代码转换为向后兼容的 JavaScript 代码,以便在旧版本的浏览器或环境中运行。以下是 Babel 的核心知识点: 1. 基本概念 编译器:Babel 本质上是一个编译器&…...
学习笔记(算法学习+Maven)
单调队列优化多重背包 #include <bits/stdc.h> using namespace std; const int M 2010; const int N 20010; int q[N]; int hh 0, tt -1; int f[N]; int g[N]; int v[M], w[M], s[M]; int n, m; int main() { cin >> n >> m; for (int i 1; …...
买币永续合约成全球交易热点,XBIT去中心化交易所平台显著提升市场流动性
在全球加密货币市场日益扩大的背景下,买币永续合约正展现出惊人的增长势头。虽然比特币自2021年黄金时期以来整体兴趣有所减弱,但永续合约市场表现亮眼,专业和机构交易者正从传统日历期货转向这一领域,使得永续合约占据了约66%的未…...