当前位置: 首页 > news >正文

【NLP】Transformer网络结构(2)

一、Transformer 整体架构

Transformer 由 Encoder 和 Decoder 堆叠组成,每个 Encoder/Decoder 层包含以下核心模块:

  • Encoder 层:Multi-Head Self-Attention → Add & LayerNorm → Feed-Forward → Add & LayerNorm
  • Decoder 层:Masked Multi-Head Self-Attention → Add & LayerNorm → Cross-Attention (Encoder-Decoder) → Add & LayerNorm → Feed-Forward → Add & LayerNorm

二、核心组件代码实现与解析

1. 位置编码 (Positional Embeddings)

原理:将序列中每个 token 的位置信息编码为向量,与词向量相加后输入模型。常用正弦/余弦函数或可学习参数实现。

class PositionalEncoding(nn.Module):def __init__(self, d_model, max_len=5000):super().__init__()pe = torch.zeros(max_len, d_model)  # (max_len, d_model)position = torch.arange(0, max_len).unsqueeze(1)  # (max_len, 1)div_term = torch.exp(torch.arange(0, d_model, 2) * (-math.log(10000.0) / d_model)pe[:, 0::2] = torch.sin(position * div_term)  # 偶数位置pe[:, 1::2] = torch.cos(position * div_term)  # 奇数位置self.register_buffer('pe', pe)  # 非可学习参数def forward(self, x):# x: (B, seq_len, d_model)x = x + self.pe[:x.size(1), :]  # 仅取前seq_len个位置的编码return x

代码解析

  • 固定模式编码:使用正弦函数生成位置编码,区分奇偶位置维度。
  • 可扩展性max_len 预设最大序列长度,适用于不同输入长度。
  • 加法融合:直接将位置编码与词嵌入相加,保留位置信息。

2. 层归一化 (Layer Normalization)

原理:对每个样本的特征维度(而非批量维度)进行归一化,稳定训练。

# PyTorch 内置实现
layer_norm = nn.LayerNorm(d_model)

关键特性

  • 归一化维度:沿特征维度(d_model)计算均值和方差。
  • 残差连接:常与残差结构配合使用(如 x + sublayer(x))。

3. 前馈网络 (Feed-Forward Layer)

原理:通过两个线性变换与激活函数,增强模型非线性表达能力。

class FeedForward(nn.Module):def __init__(self, d_model, dim_feedforward=2048, dropout=0.1):super().__init__()self.linear1 = nn.Linear(d_model, dim_feedforward)self.dropout = nn.Dropout(dropout)self.linear2 = nn.Linear(dim_feedforward, d_model)def forward(self, x):x = self.linear1(x)x = F.relu(x)x = self.dropout(x)x = self.linear2(x)return x

代码解析

  • 维度扩展:先升维(d_model → dim_feedforward)再降维,增强特征交互。
  • 激活函数:使用 ReLU 引入非线性。

4. Encoder 层
class EncoderLayer(nn.Module):def __init__(self, d_model, nhead, dim_feedforward=2048, dropout=0.1):super().__init__()self.self_attn = MultiHeadAttention(d_model, nhead, d_model//nhead, d_model//nhead)self.ffn = FeedForward(d_model, dim_feedforward, dropout)self.norm1 = nn.LayerNorm(d_model)self.norm2 = nn.LayerNorm(d_model)self.dropout = nn.Dropout(dropout)def forward(self, src, src_mask=None):# 1. Self-Attentionattn_output, _ = self.self_attn(src, src, src, mask=src_mask)src = src + self.dropout(attn_output)  # 残差连接src = self.norm1(src)# 2. Feed-Forwardffn_output = self.ffn(src)src = src + self.dropout(ffn_output)  # 残差连接src = self.norm2(src)return src

代码解析

  • 残差连接x + dropout(sublayer(x)) 缓解梯度消失。
  • 层归一化顺序:先残差连接后归一化(Post-LN 结构)。

5. Decoder 层
class DecoderLayer(nn.Module):def __init__(self, d_model, nhead, dim_feedforward=2048, dropout=0.1):super().__init__()self.self_attn = MultiHeadAttention(d_model, nhead, d_model//nhead, d_model//nhead)self.cross_attn = MultiHeadAttention(d_model, nhead, d_model//nhead, d_model//nhead)self.ffn = FeedForward(d_model, dim_feedforward, dropout)self.norm1 = nn.LayerNorm(d_model)self.norm2 = nn.LayerNorm(d_model)self.norm3 = nn.LayerNorm(d_model)self.dropout = nn.Dropout(dropout)def forward(self, tgt, memory, tgt_mask=None, memory_mask=None):# 1. Masked Self-Attentionattn_output, _ = self.self_attn(tgt, tgt, tgt, mask=tgt_mask)tgt = tgt + self.dropout(attn_output)tgt = self.norm1(tgt)# 2. Encoder-Decoder Cross Attentionattn_output, _ = self.cross_attn(tgt, memory, memory, mask=memory_mask)tgt = tgt + self.dropout(attn_output)tgt = self.norm2(tgt)# 3. Feed-Forwardffn_output = self.ffn(tgt)tgt = tgt + self.dropout(ffn_output)tgt = self.norm3(tgt)return tgt

代码解析

  • Masked Self-Attention:使用 tgt_mask 遮挡未来词(如对角线矩阵)。
  • Cross-Attentiontgt 作为 Query,memory(Encoder 输出)作为 Key/Value。

6. 完整 Transformer 模型
class Transformer(nn.Module):def __init__(self, src_vocab_size, tgt_vocab_size, d_model=512, nhead=8, num_encoder_layers=6, num_decoder_layers=6, dim_feedforward=2048, dropout=0.1):super().__init__()# 1. 嵌入层与位置编码self.src_embed = nn.Embedding(src_vocab_size, d_model)self.tgt_embed = nn.Embedding(tgt_vocab_size, d_model)self.pos_encoder = PositionalEncoding(d_model)# 2. Encoder 和 Decoder 堆叠self.encoder_layers = nn.ModuleList([EncoderLayer(d_model, nhead, dim_feedforward, dropout)for _ in range(num_encoder_layers)])self.decoder_layers = nn.ModuleList([DecoderLayer(d_model, nhead, dim_feedforward, dropout)for _ in range(num_decoder_layers)])# 3. 输出层self.fc_out = nn.Linear(d_model, tgt_vocab_size)def forward(self, src, tgt, src_mask=None, tgt_mask=None):# 编码器src_emb = self.pos_encoder(self.src_embed(src))for layer in self.encoder_layers:src_emb = layer(src_emb, src_mask)# 解码器tgt_emb = self.pos_encoder(self.tgt_embed(tgt))for layer in self.decoder_layers:tgt_emb = layer(tgt_emb, src_emb, tgt_mask, None)# 输出预测output = self.fc_out(tgt_emb)return output

关键参数

  • src_vocab_size:源语言词表大小。
  • tgt_vocab_size:目标语言词表大小。
  • d_model:模型维度(通常与词嵌入维度一致)。
  • nhead:多头注意力头数。
  • num_encoder/decoder_layers:Encoder/Decoder 层数。

三、使用示例

# 参数设置
src_vocab_size = 10000  # 源语言词表大小
tgt_vocab_size = 8000   # 目标语言词表大小
d_model = 512
nhead = 8
num_layers = 6
batch_size = 32
seq_len = 50# 初始化模型
model = Transformer(src_vocab_size, tgt_vocab_size, d_model, nhead, num_layers, num_layers)# 随机生成输入
src = torch.randint(0, src_vocab_size, (batch_size, seq_len))  # (B, seq_len)
tgt = torch.randint(0, tgt_vocab_size, (batch_size, seq_len))  # (B, seq_len)# 前向计算
output = model(src, tgt)
print("Output shape:", output.shape)  # (B, seq_len, tgt_vocab_size)

相关文章:

【NLP】Transformer网络结构(2)

一、Transformer 整体架构 Transformer 由 Encoder 和 Decoder 堆叠组成,每个 Encoder/Decoder 层包含以下核心模块: Encoder 层:Multi-Head Self-Attention → Add & LayerNorm → Feed-Forward → Add & LayerNormDecoder 层&…...

【LeetCode77】组合

题目描述 给定区间 [1, n] 和一个整数 k,需要返回所有可能的 k 个数的组合。 思路 算法选择:回溯算法 回溯算法是一种试探性搜索方法,非常适合用来解决组合问题。基本思想是: 从数字 1 开始,逐步构建组合。当当前组…...

1631. 最小体力消耗路径

文章目录 题意思路代码 题意 题目链接 思路 搜索 代码 class Solution { public:int minimumEffortPath(vector<vector<int>>& heights) {int m heights.size();int n heights[0].size();int x_add[] {0, 0, 1, -1};int y_add[] {1, -1, 0, 0};if (m …...

时间复杂度和空间复杂度

&#x1f31f; 各位看官好&#xff0c;我是maomi_9526&#xff01; &#x1f30d; 种一棵树最好是十年前&#xff0c;其次是现在&#xff01; &#x1f680; 今天来学习C语言的相关知识。 &#x1f44d; 如果觉得这篇文章有帮助&#xff0c;欢迎您一键三连&#xff0c;分享给更…...

Python基于OpenCV和SVM实现中文车牌识别系统GUI界面

说明&#xff1a;这是一个系统实战项目&#xff0c;如需项目代码可以直接到文章最后关注获取。 项目背景 随着智能交通系统和智慧城市的发展&#xff0c;车牌识别技术在车辆管理、交通监控、停车场收费等领域发挥着重要作用。传统的车牌识别系统主要针对英文和数字的识别&…...

用AbortController取消事件绑定

视频教程 React - &#x1f914; Abort Controller 到底是什么神仙玩意&#xff1f;看完这个视频你就明白了&#xff01;&#x1f4a1;_哔哩哔哩_bilibili AbortController的好处之一是事件绑定的函数已无需具名函数,匿名函数也可以被取消事件绑定了 //该代码2秒后点击失效…...

4月7日随笔

晚饭塔斯汀 下了晚自习买了一瓶百香果rio 还有一块五毛钱的老酸奶&#xff0c;这个糖吃的时候是真开心呀 英语课互动感觉越来越少了&#xff0c;我甚至看了十分钟的小排球 解析几何和微积分都听不进去了。就算坐在第三排还是会走神。但是不知道为什么我刷视频和打游戏的时…...

Android使用声网SDK实现音视频互动(RTC)功能

一、前期准备 1、注册声网账号 声网官网 2、创建项目 拿到AppID&#xff0c;主要证书 二、代码部分 先上一下官方提供的demo地址&#xff1a; Agora-RTC-QuickStart: 此仓库包含 Agora RTC Native SDK 的QuickStart示例项目。 - Gitee.comhttps://gitee.com/agoraio-comm…...

【go】slice的浅拷贝和深拷贝

浅拷贝(Shallow Copy) 浅拷贝是指只复制切片本身的结构&#xff08;指针、长度和容量&#xff09;&#xff0c;而不复制底层数组的元素。 实现方式 直接赋值&#xff1a; slice1 : []int{1, 2, 3} slice2 : slice1 // 浅拷贝切片操作&#xff1a; slice1 : []int{1, 2, 3} s…...

哑铃图:让数据对比一目了然【Dumbbell Chart】

没错&#xff0c;当我祭出 “哑铃” 阵列&#xff0c;你当如何破解&#xff0c;哈哈哈哈…此时&#xff0c;你可以适当怀疑笔者的精神状态了。但话说回来&#xff0c;如果稍加想象&#xff0c;把上图竖起来&#xff0c;“大致” 就是我要分享的 “哑铃图” 了。&#x1f611; …...

Spring Boot 集成 MongoDB 时自动创建的核心 Bean 的详细说明及表格总结

以下是 Spring Boot 集成 MongoDB 时自动创建的核心 Bean 的详细说明及表格总结&#xff1a; 核心 Bean 列表及详细说明 1. MongoClient 类型&#xff1a;com.mongodb.client.MongoClient作用&#xff1a; MongoDB 客户端核心接口&#xff0c;负责与 MongoDB 服务器建立连接、…...

水产养殖水下监控无人机推荐-P200PRO

水产养殖水下监控无人机推荐 | 潜 鲛 P200 PRO&#xff1a;您的“水下管家”&#xff0c;养鱼增产、降本增效的终极利器&#xff01; ——上海 棕航电子 科技&#xff0c;用技术守护每一方鱼塘 一、水产养殖的痛点&#xff1a;看不见的水下&#xff0c;才是赚钱的关键 …...

数据结构与算法-数学-基础数学算法(筛质数,最大公约数,最小公倍数,质因数算法,快速幂,乘法逆元,欧拉函数)

一&#xff1a;筛质数&#xff1a; 1-埃氏筛法 该算法核心是从 2 开始&#xff0c;把每个质数的倍数标记为合数&#xff0c;时间复杂度约为 O(nloglogn)。 #include <iostream> #include <vector>u sing namespace std; const int N 1000010; bool st[N]; …...

elasticSearch-搜索引擎

搜索引擎的优势 有了数据库分页查询&#xff0c;为什么还需要搜索引擎&#xff1f; 搜索引擎速度上很快数据库分页查询&#xff0c;随着数据库数据量增大&#xff0c;页数靠后&#xff0c;会导致搜索速度变慢&#xff0c;但是搜索引擎不会搜索引擎支持分词查询&#xff0c;地…...

MQTT-Dashboard-数据集成

sink [sɪŋk] 下沉&#xff1b;沉没&#xff1b;沉降&#xff1b;...

uni-app项目运行在浏览器、微信开发者工具、mumu模拟器

一、安装HBuilder X 1、下载HBuilder X 官网网址&#xff1a;https://dcloud.io/hbuilderx.html 根据电脑系统下载对应的版本&#xff08;我的电脑是Windows 10&#xff09; 2.安装HBuilder X 直接将HBuilderX.4.61.2025040322-alpha.zip解压到自己想要存放的文件夹中 双击…...

从零开始微调Embedding模型:基于BERT的实战教程

文章目录 背景微调实战装包介绍 项目文件介绍微调硬件配置要求 debug 重要代码分析【选看】资源分享参考资料 背景 在理解与学会了Naive RAG的框架流程后&#xff0c;就很自然地关注到embedding模型&#xff0c;与问题相关的文本召回&#xff0c;也有很多论文在做这方面的创新…...

机器学习(神经网络基础篇)——个人理解篇5(梯度下降中遇到的问题)

在神经网络训练中&#xff0c;计算参数的梯度是关键步骤。numerical_gradient 方法旨在通过数值微分&#xff08;中心差分法&#xff09;计算损失函数对网络参数的梯度。然而&#xff0c;该方法的实现存在一个关键问题&#xff0c;导致梯度计算错误。 1、错误代码示例&#xf…...

带label的3D饼图(threejs)

3D饼图 使用three.js实现&#xff0c;选择threejs的原因&#xff1a;label需要实际的显示在具体的饼对应的模块上 “three”: “^0.127.0”, <template><div><div ref"chartContainer" class"chart-container"></div><div clas…...

ragflow开启https访问:使用自签证书还是有不安全警告,如何解决

背景:在ragflow里的使用了自签证书来启动ragflow,在浏览器里访问还是不安全警告,如何解决 在方案2中,证书不会在访问网站时自动下载,需要你手动获取并安装证书文件。以下是具体操作步骤: 详细步骤:手动获取并安装自签名证书 第一步:获取证书文件 找到证书文件 证书文件位…...

条件变量核心要素

条件变量内部实现原理 原子性解锁阻塞机制&#xff1a; // pthread_cond_wait内部伪代码大致如下&#xff1a; int pthread_cond_wait(cond_t *cond, mutex_t *mutex) {atomic {unlock(mutex); // 原子操作中先释放互斥锁block_thread(); // 立即将线程加入等待队列…...

C语言求鞍点

我们先在第一行中找出最大的值&#xff0c;然后在该列中找出最小值看这两个是否相等。 若是相等&#xff0c;那么这个数就是鞍点跳出循环 若是不想等&#xff0c;则继续在下一行寻找&#xff0c;若是一直到整体的循环都结束了还是没有&#xff0c;那么不存在鞍点。 运行结果:…...

XELA机器人多种“形态和玩法”的Uskin磁性阵列式三轴触觉传感器,你使用过了吗?

XELA Robotics为机器人行业提供创新的磁性触觉传感技术&#xff0c;uSkin触觉传感器是一种高密度的三轴触觉传感器&#xff0c;因其轻薄、表面柔软耐用和布线少的结构设计&#xff0c;可以轻松集成到机器人本体&#xff0c;灵巧手&#xff0c;机器人夹爪等部位&#xff0c;使机…...

转换效率高达 96%,12V转5V同步降压WD5030

特点1 宽输入电压范围&#xff1a;能在 7V 至 30V 的宽输入电压范围内工作&#xff0c;可适应多种不同电压等级的供电环境&#xff0c;无论是工业设备中的较高电压输入&#xff0c;还是便携式设备经过初步升压后的电压&#xff0c;都能良好适配&#xff0c;极大地拓展了应用的…...

请你回答一下单元测试、集成测试、系统测试、验收测试、回归测试这几步中最重要的是哪一步?

在软件测试的不同阶段中,每个环节都有其不可替代的价值,但若从工程效率和缺陷防控的全局视角来看,单元测试(Unit Testing) 是质量金字塔的基石,其重要性最为关键。以下是分层解析: 一、从缺陷修复成本看优先级 美国国家标准与技术研究院(NIST)研究显示: 单元测试阶段…...

QML和C++交互

目录 1 QML与C交互基础1.1 全局属性1.2 属性私有化(提供接口访问) 2 QT与C交互&#xff08;C创建自定义对象&#xff0c;qml文件直接访问&#xff09;3 QT与C交互&#xff08;qml直接访问C中的函数&#xff09;4 QT与C交互&#xff08;qml端发送信号 C端实现槽函数&#xff09;…...

2021年-全国大学生数学建模竞赛(CUMCM)试题速浏、分类及浅析

2021年-全国大学生数学建模竞赛(CUMCM)试题速浏、分类及浅析 全国大学生数学建模竞赛(China Undergraduate Mathematical Contest in Modeling)是国家教委高教司和中国工业与应用数学学会共同主办的面向全国大学生的群众性科技活动,目的在于激励学生学习数学的积极性,提高学…...

mariadb使用docker compose方式安装

问题 本地mac m1上面的mysql和mariadb突然不用使用了&#xff0c;重新安装也不想&#xff0c;最近mac系统也更新了&#xff0c;brew也更新了&#xff0c;重新安装mariadb还是不能正常使用&#xff0c;现在我打算使用docker来安装本地的mariadb了。 默认配置文件my.cnf 从容器…...

Logo语言的死锁

Logo语言的死锁现象研究 引言 在计算机科学中&#xff0c;死锁是一个重要的研究课题&#xff0c;尤其是在并发编程中。它指的是两个或多个进程因争夺资源而造成的一种永久等待状态。在编程语言的设计与实现中&#xff0c;如何避免死锁成为了优化系统性能和提高程序可靠性的关…...

具身智能零碎知识点(一):深入解析Transformer位置编码

深入解析Transformer位置编码 Transformer位置编码完全解析&#xff1a;从公式到计算的终极指南一、位置编码的必要性演示二、位置编码公式深度拆解原始公式参数说明&#xff08;以d_model4为例&#xff09; 三、完整计算过程演示步骤1&#xff1a;计算频率因子步骤2&#xff1…...

0201概述-机器学习-人工智能

文章目录 1、概述1.1、示例1.2、概念 2、应用场景2.1、行业应用场景2.1.1、金融领域2.1.2、 医疗健康2.1.3、零售与电商2.1.4、 制造业2.1.5、自动驾驶 2.2、功能场景分类2.2.1、 预测类2.2.2、分类与识别类2.2.3、生成与优化类 2.3、机器学习适用场景的共同特征 3、实现机器学…...

金能电力工具柜:“五世同堂”演绎创新华章

在电力与工业领域的浩瀚星空中&#xff0c;金能电力如同一颗璀璨的星辰&#xff0c;其工具柜产品更是经历了五代更迭&#xff0c;如同家族中的“五世同堂”&#xff0c;每一代都承载着前人的智慧与后人的创新&#xff0c;共同谱写着传承与创新的交响曲。 初识平凡&#xff1a;普…...

蓝桥杯每日刷题c++

目录 P9240 [蓝桥杯 2023 省 B] 冶炼金属 - 洛谷 (luogu.com.cn) P8748 [蓝桥杯 2021 省 B] 时间显示 - 洛谷 (luogu.com.cn) P10900 [蓝桥杯 2024 省 C] 数字诗意 - 洛谷 (luogu.com.cn) P10424 [蓝桥杯 2024 省 B] 好数 - 洛谷 (luogu.com.cn) P8754 [蓝桥杯 2021 省 AB2…...

MySQL基础 [五] - 表的增删查改

目录 Create&#xff08;insert&#xff09; Retrieve&#xff08;select&#xff09; where条件 ​编辑 NULL的查询 结果排序(order by) 筛选分页结果 (limit) Update Delete 删除表 截断表&#xff08;truncate&#xff09; 插入查询结果&#xff08;insertselect&…...

深入解析 MySQL 中的日期时间函数:DATE_FORMAT 与时间查询优化

深入解析 MySQL 中的日期时间函数&#xff1a;DATE_FORMAT 与时间查询优化 在数据库管理和应用开发中&#xff0c;日期和时间的处理是不可或缺的一部分。MySQL 提供了多种日期和时间函数来满足不同的需求&#xff0c;其中DATE_FORMAT函数以其强大的日期格式化能力&#xff0c;…...

GPU是什么? 与 FPGA 有何关联

前段时间&#xff0c;AMD 和英伟达相继接到通知将对我国断供高端 GPU 芯片&#xff0c;很多人这才意识到 GPU 的战略价值。那么 GPU 究竟是什么&#xff1f;它为何如此重要&#xff1f;今天就由 宸极教育 带大家一起了解 GPU 的核心地位&#xff0c;以及它与国产FPGA发展的关系…...

数据结构与算法:基础与进阶

&#x1f31f; 各位看官好&#xff0c;我是maomi_9526&#xff01; &#x1f30d; 种一棵树最好是十年前&#xff0c;其次是现在&#xff01; &#x1f680; 今天来学习C语言的相关知识。 &#x1f44d; 如果觉得这篇文章有帮助&#xff0c;欢迎您一键三连&#xff0c;分享给更…...

低配置云服务器网站的高效防御攻略

在网络环境日益复杂的当下&#xff0c;低配置云服务器网站常面临攻击威胁。不少站长疑惑&#xff0c;明明设置了 CC 防御&#xff0c;服务器却依旧不堪一击&#xff0c;这是怎么回事呢&#xff1f; 比如&#xff0c;在 CC 防御配置中&#xff0c;设定 10 秒内允许访问 50 次。但…...

使用 Lua 脚本高效查询 Redis 键的内存占用

使用 Lua 脚本高效查询 Redis 键的内存占用 在处理 Redis 数据时&#xff0c;我们常常需要了解某些键的内存占用情况&#xff0c;尤其是在优化内存使用或排查问题时。虽然 Redis 提供了MEMORY USAGE命令来查询单个键的内存占用&#xff0c;但如果需要批量查询多个键&#xff0…...

【Linux篇】基础IO - 揭秘重定向与缓冲区的管理机制

&#x1f4cc; 个人主页&#xff1a; 孙同学_ &#x1f527; 文章专栏&#xff1a;Liunx &#x1f4a1; 关注我&#xff0c;分享经验&#xff0c;助你少走弯路&#xff01; 文章目录 一. 理解重定向1.1 理解重定向1.2 dup21.3 进一步理解重定向输出重定向&#xff1a;追加重定向…...

centos 8 启动Elasticsearch的时候报内存不足问题解决办法

centos 8 启动Elasticsearch 的时候报错,导致无法启动Elasticsearch 。 [root@CentOS-8 ~]# journalctl -xe Apr 07 18:25:56 CentOS-8.0 kernel: [ 8754] 0 8754 3180 63 69632 0 0 sh Apr 07 18:25:56 CentOS-8.0 kernel: [ 8755] 0 8755 3180 64 69632 0 0 sh Apr 07 18:25…...

深入剖析Java IO设计模式:从底层原理到实战应用

&#x1f50d; 引言&#xff1a;设计模式与IO的完美交响 在软件开发的浩瀚星河中&#xff0c;设计模式犹如璀璨的导航星&#xff0c;而Java IO体系则是支撑数据流动的神经网络。 当我们以设计模式的视角重新审视Java IO库时&#xff0c;会发现这个看似平凡的IO世界实则暗藏着…...

阶段测试 【过程wp】

分享总结: 回顾起来,真的感慨很多呀。看着并不难啊,但难的是解题思维:如何判断该页面的关键点,快速地确定问题的核心,找到对应的解决方法。达到便捷、高效的得到结果。我们做了整整近七个半小时。在这个过程中,我发现自己的思维钝化,不太能自主高效地划分判断漏洞类型,…...

qml信号与槽函数

目录 信号与槽函数基础方法1-使用Connections方式2-使用connect&#xff08;不常用&#xff09; 自定义组件与信号槽使用 信号与槽函数基础 方法1-使用Connections main.qml import QtQuick 2.15 import QtQuick.Window 2.15 import QtQuick.Controls 2.15Window {id:windoww…...

ngx_palloc

定义在 src\core\ngx_palloc.c void * ngx_palloc(ngx_pool_t *pool, size_t size) { #if !(NGX_DEBUG_PALLOC)if (size < pool->max) {return ngx_palloc_small(pool, size, 1);} #endifreturn ngx_palloc_large(pool, size); } 判断 需要分配的内存大小 是否小于 poo…...

notepad++日常使用(每行开头、每行末尾增加字符串,每行中间去掉字符串)

1. 每行开头增加字符串 如果我们要给下面的数据每行的开头都增加相同的一些字符串{value: 这时候只需要使用notepad的语法&#xff0c;使用快捷键Crtl H 替换功能&#xff0c;每一行开头使用 ^ 符号&#xff0c;替换成自己想要的字符串 {value: 使用全部替换就会在每行数据…...

Java面试黄金宝典39

1. SNMP、SMTP 协议 SNMP(简单网络管理协议) 定义:SNMP 是一种应用层协议,用于在 IP 网络中管理网络节点(如服务器、路由器、交换机等)。它允许网络管理员监控网络设备的状态、收集性能数据、进行故障诊断等操作。SNMP 基于 UDP 协议,采用轮询和事件驱动相结合的方式来收…...

如何解决:http2: Transport received Server‘s graceful shutdown GOAWAY

有一次做压力测试&#xff0c;客户端经常出现如下错误&#xff1a; http2: Transport: cannot retry err [http2: Transport received Servers graceful shutdown GOAWAY] after Request.Body was written; define Request.GetBody to avoid this error是 Golang 中使用 HTTP/…...

贪心算法(16)(java)俄罗斯套娃信封问题

题目&#xff1a;给你一个二维整数数组 envelopes &#xff0c;其中 envelopes[i] [wi, hi] &#xff0c;表示第 i 个信封的宽度和高度。 当另一个信封的宽度和高度都比这个信封大的时候&#xff0c;这个信封就可以放进另一个信封里&#xff0c;如同俄罗斯套娃一样。 请计算…...

【DeepSeek原理学习2】MLA 多头隐变量注意力

解决的问题 Multi-Head Latent Attention&#xff0c;MLA——解决的问题&#xff1a;KV cache带来的计算效率低和内存需求大以及上下文长度扩展问题。 MLA原理 MLA原理&#xff1a;其核心思想是将键&#xff08;Key&#xff09;和值&#xff08;Value&#xff09;矩阵压缩到…...