PyTorch 深度学习实战(36):混合精度训练与梯度缩放
在上一篇文章中,我们探讨了图生成模型与分子设计。本文将深入介绍混合精度训练(Mixed Precision Training)和梯度缩放(Gradient Scaling)技术,这些技术可以显著加速模型训练并减少显存占用,同时保持模型精度。我们将使用PyTorch的AMP(Automatic Mixed Precision)模块在图像分类任务上实现这些技术。
一、混合精度训练基础
1. 精度类型对比
精度类型 | 位数 | 范围 | 内存占用 | 计算速度 |
---|---|---|---|---|
FP32 | 32位 | ~1e-38 to ~3e38 | 4字节/参数 | 基准速度 |
FP16 | 16位 | ~6e-5 to 65504 | 2字节/参数 | 2-8倍加速 |
BF16 | 16位 | ~1e-38 to ~3e38 | 2字节/参数 | 类似FP16 |
2. 混合精度训练三大组件
class MixedPrecisionComponents:def __init__(self):self.fp16_operations = ["矩阵乘法", "卷积"] # 适合FP16的操作self.fp32_operations = ["Softmax", "LayerNorm"] # 需要FP32精度的操作self.gradient_scaling = True # 防止梯度下溢
3. 混合精度训练流程
二、混合精度训练实战
1. 环境配置
pip install torch torchvision torchmetrics
2. 基础实现(手动模式)
import torch
import torch.nn as nn
import torch.optim as optim
from torchvision import datasets, transforms
from torch.utils.data import DataLoader
from torch.amp import GradScaler, autocast
import torch.nn.functional as F
# 设备配置
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
# 模型定义
class CNN(nn.Module):def __init__(self):super().__init__()self.conv1 = nn.Conv2d(3, 32, 3, padding=1)self.conv2 = nn.Conv2d(32, 64, 3, padding=1)self.fc1 = nn.Linear(64 * 8 * 8, 256)self.fc2 = nn.Linear(256, 10)self.pool = nn.MaxPool2d(2, 2)
def forward(self, x):x = self.pool(F.relu(self.conv1(x)))x = self.pool(F.relu(self.conv2(x)))x = x.view(-1, 64 * 8 * 8)x = F.relu(self.fc1(x))x = self.fc2(x)return x
# 初始化
model = CNN().to(device)
optimizer = optim.Adam(model.parameters(), lr=0.001)
criterion = nn.CrossEntropyLoss()
scaler = GradScaler() # 梯度缩放器
# 数据加载
transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))
])
train_dataset = datasets.CIFAR10(root='./data', train=True, download=True, transform=transform)
train_loader = DataLoader(train_dataset, batch_size=256, shuffle=True)
# 训练循环
def train_epoch(epoch):model.train()total_loss = 0
for batch_idx, (data, target) in enumerate(train_loader):data, target = data.to(device), target.to(device)optimizer.zero_grad()
# 启用自动混合精度with autocast('cuda'):output = model(data)loss = criterion(output, target)
# 梯度缩放反向传播scaler.scale(loss).backward()
# 梯度缩放优化器步进scaler.step(optimizer)
# 更新缩放器scaler.update()
total_loss += loss.item()
if batch_idx % 100 == 0:print(f"Epoch: {epoch} | Batch: {batch_idx}/{len(train_loader)} | Loss: {loss.item():.4f}")
return total_loss / len(train_loader)
# 训练多个epoch
for epoch in range(1, 11):avg_loss = train_epoch(epoch)print(f"Epoch {epoch} completed. Avg Loss: {avg_loss:.4f}")
输出为:
Files already downloaded and verified
Epoch: 1 | Batch: 0/196 | Loss: 2.3047
Epoch: 1 | Batch: 100/196 | Loss: 1.3887
Epoch 1 completed. Avg Loss: 1.4791
Epoch: 2 | Batch: 0/196 | Loss: 1.2960
Epoch: 2 | Batch: 100/196 | Loss: 1.0821
Epoch 2 completed. Avg Loss: 1.0934
Epoch: 3 | Batch: 0/196 | Loss: 1.0498
Epoch: 3 | Batch: 100/196 | Loss: 0.9498
Epoch 3 completed. Avg Loss: 0.9368
Epoch: 4 | Batch: 0/196 | Loss: 0.8334
Epoch: 4 | Batch: 100/196 | Loss: 0.6887
Epoch 4 completed. Avg Loss: 0.8291
Epoch: 5 | Batch: 0/196 | Loss: 0.6790
Epoch: 5 | Batch: 100/196 | Loss: 0.8170
Epoch 5 completed. Avg Loss: 0.7436
Epoch: 6 | Batch: 0/196 | Loss: 0.5595
Epoch: 6 | Batch: 100/196 | Loss: 0.6540
Epoch 6 completed. Avg Loss: 0.6649
Epoch: 7 | Batch: 0/196 | Loss: 0.5427
Epoch: 7 | Batch: 100/196 | Loss: 0.5254
Epoch 7 completed. Avg Loss: 0.5915
Epoch: 8 | Batch: 0/196 | Loss: 0.5462
Epoch: 8 | Batch: 100/196 | Loss: 0.5190
Epoch 8 completed. Avg Loss: 0.5130
Epoch: 9 | Batch: 0/196 | Loss: 0.4183
Epoch: 9 | Batch: 100/196 | Loss: 0.4018
Epoch 9 completed. Avg Loss: 0.4439
Epoch: 10 | Batch: 0/196 | Loss: 0.5110
Epoch: 10 | Batch: 100/196 | Loss: 0.3564
Epoch 10 completed. Avg Loss: 0.3754
3. 自动混合精度(AMP)高级配置
class PrecisionDebugger:def __init__(self, model):self.model = modelself.fp16_tensors = []self.fp32_tensors = []
def track_precision(self):self.fp16_tensors = []self.fp32_tensors = []for name, param in self.model.named_parameters():if param.dtype == torch.float16:self.fp16_tensors.append(name)else:self.fp32_tensors.append(name)
print("FP16参数:", self.fp16_tensors)print("FP32参数:", self.fp32_tensors)
def detect_overflow(self, scaler):# 新版本PyTorch的检查方式if scaler.is_enabled():# 获取缩放器内部状态scale = scaler.get_scale()# 检查是否有溢出发生if scaler._found_inf.item() if hasattr(scaler, '_found_inf') else False:print("警告: 检测到梯度溢出!当前缩放因子:", scale)return Truereturn False# 高级AMP配置
def train_with_custom_amp(epochs=10):# 创建梯度缩放器,带自定义参数scaler = GradScaler(init_scale=2. ** 16, # 初始缩放因子growth_factor=2.0, # 增长因子backoff_factor=0.5, # 回退因子growth_interval=2000, # 增长间隔enabled=True # 可动态启用/禁用)model.train()total_loss = 0
# 初始化调试器debugger = PrecisionDebugger(model)
for epoch in range(epochs):for batch_idx, (data, target) in enumerate(train_loader):data, target = data.to(device), target.to(device)optimizer.zero_grad()
# 自定义autocast区域with autocast('cuda', dtype=torch.float16, cache_enabled=True):# 此区域内操作自动选择合适精度output = model(data)loss = criterion(output, target)
# 带剪裁的梯度缩放scaler.scale(loss).backward()scaler.unscale_(optimizer) # 取消缩放以进行剪裁torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm=1.0)scaler.step(optimizer)scaler.update()
# 每100批次检查一次if batch_idx % 100 == 0:# 打印训练信息print(f"Epoch: {epoch} | Batch: {batch_idx}/{len(train_loader)} | Loss: {loss.item():.4f}")
# 使用调试器检查精度和溢出debugger.track_precision()if debugger.detect_overflow(scaler):print("梯度溢出检测到,已自动调整缩放因子")
# 打印当前缩放因子print(f"当前缩放因子: {scaler.get_scale()}")return total_loss / len(train_loader)
train_with_custom_amp()
输出为:
Epoch: 0 | Batch: 0/196 | Loss: 0.3563
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 65536.0
Epoch: 0 | Batch: 100/196 | Loss: 0.2108
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 65536.0
Epoch: 1 | Batch: 0/196 | Loss: 0.1676
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 1 | Batch: 100/196 | Loss: 0.2804
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 2 | Batch: 0/196 | Loss: 0.1914
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 2 | Batch: 100/196 | Loss: 0.1878
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 3 | Batch: 0/196 | Loss: 0.1588
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 3 | Batch: 100/196 | Loss: 0.1360
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 4 | Batch: 0/196 | Loss: 0.0888
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 4 | Batch: 100/196 | Loss: 0.1061
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 5 | Batch: 0/196 | Loss: 0.0906
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 5 | Batch: 100/196 | Loss: 0.0912
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 6 | Batch: 0/196 | Loss: 0.1038
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 6 | Batch: 100/196 | Loss: 0.0700
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 7 | Batch: 0/196 | Loss: 0.0480
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 7 | Batch: 100/196 | Loss: 0.0719
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 8 | Batch: 0/196 | Loss: 0.0289
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 8 | Batch: 100/196 | Loss: 0.0637
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 9 | Batch: 0/196 | Loss: 0.0236
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
Epoch: 9 | Batch: 100/196 | Loss: 0.0420
FP16参数: []
FP32参数: ['conv1.weight', 'conv1.bias', 'conv2.weight', 'conv2.bias', 'fc1.weight', 'fc1.bias', 'fc2.weight', 'fc2.bias']
当前缩放因子: 32768.0
三、关键技术解析
1. 梯度缩放原理
梯度缩放解决FP16下溢问题:
-
前向传播:FP16计算
-
损失计算:FP32
-
反向传播:FP16梯度
-
梯度缩放:将梯度乘以缩放因子S(FP32)
-
参数更新:梯度/S后更新FP32主权重
数学表达:
2. 精度问题调试技巧
class PrecisionDebugger:def __init__(self, model):self.model = modelself.fp16_tensors = []self.fp32_tensors = []
def track_precision(self):self.fp16_tensors = []self.fp32_tensors = []for name, param in self.model.named_parameters():if param.dtype == torch.float16:self.fp16_tensors.append(name)else:self.fp32_tensors.append(name)
print("FP16参数:", self.fp16_tensors)print("FP32参数:", self.fp32_tensors)
def detect_overflow(self, scaler):# 新版本PyTorch的检查方式if scaler.is_enabled():# 获取缩放器内部状态scale = scaler.get_scale()# 检查是否有溢出发生if scaler._found_inf.item() if hasattr(scaler, '_found_inf') else False:print("警告: 检测到梯度溢出!当前缩放因子:", scale)return Truereturn False
3. 混合精度最佳实践
场景 | 推荐配置 | 理由 |
---|---|---|
大batch训练 | init_scale=2**16, growth_factor=2.0 | 需要更大缩放因子 |
小batch训练 | init_scale=2**10, growth_factor=1.5 | 梯度更稳定 |
不稳定模型 | 禁用部分层AMP | 防止数值问题 |
多GPU训练 | 保持相同缩放因子 | 确保一致性 |
四、性能对比实验
1. 基准测试代码
def benchmark_training(precision='fp32', batch_size=256):model = CNN().to(device)data = torch.randn(batch_size, 3, 32, 32, device=device)target = torch.randint(0, 10, (batch_size,), device=device)if precision == 'fp16':scaler = GradScaler()# 预热for _ in range(10):if precision == 'fp16':with autocast('cuda'):output = model(data)loss = criterion(output, target)scaler.scale(loss).backward()scaler.step(optimizer)scaler.update()else:output = model(data)loss = criterion(output, target)loss.backward()optimizer.step()# 正式测试stmt = """if precision == 'fp16':with autocast('cuda'):output = model(data)loss = criterion(output, target)scaler.scale(loss).backward()scaler.step(optimizer)scaler.update()else:output = model(data)loss = criterion(output, target)loss.backward()optimizer.step()"""timer = Timer(stmt=stmt,globals={'model': model, 'data': data, 'target': target,'criterion': criterion, 'optimizer': optimizer,'precision': precision, 'scaler': scaler if precision == 'fp16' else None,'autocast': autocast})result = timer.timeit(100)print(f"{precision.upper()} 平均耗时: {result.mean * 1000:.2f}ms")return result# 运行测试
fp32_result = benchmark_training('fp32')
fp16_result = benchmark_training('fp16')
print(f"加速比: {fp32_result.mean / fp16_result.mean:.2f}x")
输出为:
FP32 平均耗时: 6.79ms
FP16 平均耗时: 4.04ms
加速比: 1.68x
2. 典型测试结果
精度模式 | 训练时间 | 显存占用 | 最终准确率 |
---|---|---|---|
FP32 | 基准1.0x | 100% | 92.3% |
FP16 (无缩放) | 1.8x | 55% | 训练失败 |
AMP (带缩放) | 2.5x | 60% | 92.1% |
五、总结与展望
本文详细介绍了混合精度训练与梯度缩放技术,关键要点包括:
-
完整的AMP实现:从基础使用到高级配置
-
梯度缩放原理:数学推导与实现细节
-
性能优化技巧:调试方法与最佳实践
在下一篇文章中,我们将探讨分布式训练(DP/DDP/Deepspeed)实战,介绍如何将模型训练扩展到多GPU和多节点环境。
相关文章:
PyTorch 深度学习实战(36):混合精度训练与梯度缩放
在上一篇文章中,我们探讨了图生成模型与分子设计。本文将深入介绍混合精度训练(Mixed Precision Training)和梯度缩放(Gradient Scaling)技术,这些技术可以显著加速模型训练并减少显存占用,同时…...
【Flink运行时架构】组件构成
在Flink的运行架构中,有两大比较重要的组件:作业管理器(JobManager)和任务管理器(TaskManager)。 Flink的作业提交与任务处理时的系统如下图所示。 其中,客户端并不是处理系统的一部分ÿ…...
simpy仿真
一共5个顾客,2个服务台 import simpy import randomdef customer(env, name, service_time_mean):arrival_time env.nowprint(f{arrival_time}: {name} 到达服务台,开始排队)with server.request() as req:yield reqwait_time env.now - arrival_time…...
Docker 安装MySQL
一键启动 docker run -d \--name mysql \-p 3306:3306 \-e TZAsia/Shanghai \-e MYSQL_ROOT_PASSWORD1234 \-v /usr/local/mysql/data:/var/lib/mysql \-v /usr/local/mysql/conf:/etc/mysql/conf.d \--restart always --name mysql \mysql 检查是否启动 docker ps 本地连接测…...
【消息队列kafka_中间件】三、Kafka 打造极致高效的消息处理系统
在当今数字化时代,数据量呈爆炸式增长,实时数据处理的需求变得愈发迫切。Kafka 作为一款高性能、分布式的消息队列系统,在众多企业级应用中得到了广泛应用。然而,要充分发挥 Kafka 的潜力,实现极致高效的消息处理&…...
conda如何安装和运行jupyter
在Conda环境中安装和运行Jupyter Notebook是一项常见且实用的任务,特别是在数据科学和机器学习项目中。以下是使用Conda安装和运行Jupyter Notebook的步骤: 安装Jupyter Notebook 首先,确保你的Conda是最新的。打开终端或Anaconda Prompt&a…...
防爆平板:石油化工厂智慧转型的“中枢神经”
易燃易爆气体、高温高压环境、复杂设备集群,这些特性使得传统电子设备难以直接融入生产流程。而防爆平板的出现,不仅打破了这一技术壁垒,更通过智能化、模块化设计,逐步成为连接人、设备与数据的“中枢神经”,推动石油…...
遨游科普:三防平板可以实现哪些功能?
在现代工业与户外作业场景中,电子设备不仅要面对极端环境的考验,更要承担起高效协同生产的重任。三防平板作为“危、急、特”场景移动终端的代表性产品,其核心价值早已超越传统消费级设备的范畴,成为连接智慧生产与安全管理的重要…...
互联网三高-数据库高并发之分库分表
1 数据库概述 1.1 数据库本身的瓶颈 ① 连接数 MySQL默认最大连接数为100,允许的最大连接数为16384 ② 单表海量数据查询性能 单表最好500w左右,最大警戒线800w ③ 单数据库并发压力问题 MySQL QPS:1500左右/秒 ④ 系统磁盘IO、CPU瓶颈 1.2 数…...
Python----机器学习(基于贝叶斯的鸢尾花分类)
贝叶斯方法是一种统计推断的 方法,它利用贝叶斯定理来更新我们对事件概率的信念。这种方法在机器学习和数据 分析中得到广泛应用,特别是在分类和概率估计问题上。 一、数据集介绍 这是分类方法文献中最早使用的数据集之一,广泛用于统计和机器…...
问题 | 对于初学者来说,esp32和stm32哪个比较适合?
对于初学者选择ESP32还是STM32入门嵌入式开发,需综合考虑学习目标、兴趣方向及未来职业规划。以下是两者的对比分析及建议: 1. 适合初学者的关键因素 ESP32的优势 内置无线通信:集成Wi-Fi和蓝牙功能,无需额外模块即可开发物联网…...
org.apache.spark.SparkException: Kryo serialization failed: Buffer overflow...
Spark异常:Kryo serialization failed: Buffer overflow. 1、问题描述 SparkSQL任务报错如下: org.apache.spark.SparkException: Kryo serialization failed: Buffer overflow. Available: 0, required: xxx. To avoid this, increase spark.kryoseri…...
webpack vite
1、webpack webpack打包工具(重点在于配置和使用,原理并不高优。只在开发环境应用,不在线上环境运行),压缩整合代码,让网页加载更快。 前端代码为什么要进行构建和打包? 体积更好&#x…...
论文笔记——KIMI-VL:具有增强推理能力的有效开源视觉语言模型
KIMI-VL:具有增强推理能力的有效开源视觉语言模型 原文地址:https://arxiv.org/pdf/2504.07491v1 开源地址:https://github.com/MoonshotAI/Kimi-VL 目录 简介架构概述训练方法主要功能性能基准通过长链思考增强推理应用结论 简介 视觉…...
大模型蒸馏-小模型超进化
👏作者简介:大家好,我是爱吃芝士的土豆倪,24届校招生Java选手,很高兴认识大家📕系列专栏:Spring原理、JUC原理、Kafka原理、分布式技术原理、数据库技术、JVM原理、AI应用🔥如果感觉…...
辅助记忆数字和唱名的小工具【仅PC端】
通过网盘分享的文件:random_music_note.exe 链接: https://pan.baidu.com/s/1Akc2gPzAcyhEfPHlbOYLXw?pwd4fua 提取码: 4fua –来自百度网盘超级会员v7的分享...
Android 知识沉淀
注解 1.枚举类型传参优化 enum WeekDay{SUNDAY, MONDAY}public static void setDay(WeekDay day){}我们已知,枚举类型是一个对象,对象占用的空间较大,有 12 个对象头对象的数据部分8 字节对齐,所以这里可以利用注解优化ÿ…...
KiActivateWaiterQueue函数和Queue->Header.WaitListHead队列等待列表的关系
第一部分: if (Thread->ApcState.KernelApcPending && (Thread->SpecialApcDisable 0) && (Thread->WaitIrql < APC_LEVEL)) { } else { // // Insert wait block in ob…...
代码学习总结(一)
代码学习总结(一) 这个系列的博客是记录下自己学习代码的历程,有来自平台上的,有来自笔试题回忆的,主要基于 C 语言,包括题目内容,代码实现,思路,并会注明题目难度&…...
设计模式 --- 策略模式
策略模式(Strategy Pattern)是一种 行为型设计模式,用于动态切换算法或策略,使得算法可以独立于客户端变化。它通过封装算法策略并使其可互换,提升了系统的灵活性和扩展性,尤其适用于需要多种…...
c++进阶之----智能指针
1.概念 在 C 中,智能指针是一种特殊的指针类型,它封装了裸指针(raw pointer)的行为,并通过 RAII(Resource Acquisition Is Initialization,资源获取即初始化)机制自动管理动态分配的…...
08-JVM 面试题-mk
1.JVM 的各部分组成 知道JVM 的好处:知道java 运行机制,排查问题的能力增加,比如内存泄漏、CPU飙高 JVM 是什么:Java Virtual Machine缩写,Java程序的运行环境(java二进制字节码的运行环境) 好处: 一次编写,到处运行自动内存管理,垃圾回收机制从图中可以看出 JVM …...
MTK7628基于原厂的mtk-openwrt-sdk-20160324-8f8e4f1e.tar.bz2 源代码包,配置成单网口模式的方法
一、配置. 在SDK工程下,运行make kernel_menuconfig,如下图所示: Ralink Module --->选上“One Port Only”,如下图所示: 如果P0网口实现WAN口,就配置成W/LLLL,否则就配置成LLLL/W. 二、修改网口的原代…...
青少年编程与数学 02-016 Python数据结构与算法 15课题、字符串匹配
青少年编程与数学 02-016 Python数据结构与算法 15课题、字符串匹配 一、字符串匹配问题的基本概念(一)定义(二)术语 二、暴力匹配算法(Naive String Matching)(一)算法逻辑…...
基础层数据从kafka读取写入hbase的优化方案
背景: 上游kafka的topic只有一个分区,所以spark在消费的时候,无论设置的executor数有多少,最终只有一个executor在执行,如果不指定executor num的话,默认是开启两个executor,有一个executor的资源是浪费的,例如下面显示的情况,其实只有一个executor是active的状态. 在消费的时…...
thingsboard3.9.1编译问题处理
问题1: [ERROR] Failed to execute goal org.thingsboard:gradle-maven-plugin:1.0.12:invoke (default) on project http: Execution default of goal org.thingsboard:gradle-maven-plugin:1.0.12:invoke failed: Plugin org.thingsboard:gradle-maven-plugin:1.…...
Adobe Photoshop 2025 Mac中文 Ps图像编辑
Adobe Photoshop 2025 Mac中文 Ps图像编辑 一、介绍 Adobe Photoshop 2025 Mac版集成了多种强大的图像编辑、处理和创作功能。①强化了Adobe Sensei AI的应用,通过智能抠图、自动修复、图像生成等功能,用户能够快速而精确地编辑图像。②3D编辑和动画功…...
什么是VLA
视觉-语言-动作(VLA)技术综述:迈向具身智能的未来 1. 引言 随着人工智能从单一模态感知迈向多模态交互,视觉-语言-动作(Vision-Language-Action, VLA) 技术逐渐成为连接感知、推理与物理行动的核心桥梁。V…...
数据结构:C语言版严蔚敏和解析介绍,附pdf
《数据结构:C语言版(第2版)》严蔚敏李冬梅吴伟民.pdf 《数据结构:C语言版》严蔚敏,李冬梅.pdf 《数据结构C语言第2版习题解析与实验指导》李冬梅.pdf 「《数据结构:C语言版(第2版 )》…...
C++线段树详解与实现技巧
📚 C++线段树详解与实现技巧 线段树(Segment Tree)是一种高效处理 区间查询 和 区间更新 的数据结构,时间复杂度为 O(log n)。本文结合代码实例,详解其核心原理与实现细节。 🌳 线段树结构特点 完全二叉树:使用数组存储,父子节点关系通过下标计算。区间划分:每个节…...
202527 | RabbitMQ-基础 | 队列 | Direct + Fanout + Topic 交换机 | 消息转换器
RabbitMQ RabbitMQ 架构与核心概念详解 一、整体架构图 #mermaid-svg-UTlKmvHL7RNWK6vu {font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-svg-UTlKmvHL7RNWK6vu .error-icon{fill:#552222;}#mermaid-svg-UTlKmvHL7RNWK6v…...
【学习笔记】服务器上使用 nbconvert 将 Jupyter Notebook 转换为 PDF
1. 环境准备:安装必要工具 在服务器终端运行以下命令,确保依赖已安装: (1) 安装 nbconvert 和 pandoc pip install nbconvert pandoc (2) 安装 LaTeX(推荐 TeX Live) # Ubuntu/Debian sudo apt-get update sudo a…...
List、Set集合通过Stream流求和
目录 一、泛型为Integer、Long、Double、BigDecimal求和 二、泛型为实体类 对单个属性求和 对多个属性分别分组求和 并返回聚合后的对象 多字段乘积求和(基本数据类型) 多字段乘积求和(BigDecimal) 对对象中的多个字段求和…...
微软VSCode 能否击败 Cursor 和 Windsurf?
微软是否能利用平台优势和许可限制来阻止竞争对手? AI 代码编辑器之战加剧 蓬勃发展的 AI 代码编辑领域竞争日益激烈,这个最具变革性和盈利性的新技术领域正在适应相互间的竞争。Visual Studio Code 目前是最主导的代码编辑器。 “根据 Stack Overflow 调查,Visual Studi…...
VSCode会击败Cursor和Windsurf吗?
VSCode 会击败 Cursor 和 Windsurf 吗?微软能不能靠自己的地盘优势和规则限制打压对手?答案是"能",但他们真的会这么干吗? Cursor & Windsurf vs VSCode Copilot 大PKAI编程工具大战越来越激烈现在最火最赚钱的AI…...
机器学习(4)—— K近邻算法
文章目录 1. K近邻算法(K-Nearest Neighbors, KNN)原理1.1. K近邻算法是什么算法?1.2. 核心思想 2. K近邻算法的步骤2.1. 选择K值2.2. 计算距离2.3. 选择最近邻:2.4. 做出预测: 3. K值的选择4. 数据标准化5. 优缺点6. …...
深入解读 React 纯组件(PureComponent)
什么是纯组件? React 的纯组件(PureComponent)是 React.Component 的一个变体,它通过浅比较(shallow comparison)props 和 state 来自动实现 shouldComponentUpdate() 方法,从而优化性能。 核心特点 1. 自动浅比较: PureCompon…...
常见MQ及类MQ对比:Redis Stream、Redis Pub/Sub、RocketMQ、Kafka 和 RabbitMQ
常见MQ及类MQ对比 基于Grok调研 Redis Stream、Redis Pub/Sub、RocketMQ、Kafka 和 RabbitMQ 关键点: Redis Pub/Sub 适合简单实时消息,但不持久化,消息可能丢失。Redis Stream 提供持久化,适合需要消息历史的场景,但…...
202528 | RabbitMQ-高级 | 消息可靠性 | 业务幂等性 | 延迟消息
消息可靠性 RabbitMQ发送者可靠性 一、发送者重连机制 #mermaid-svg-gqr6Yr5UNZX87ZDU {font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-svg-gqr6Yr5UNZX87ZDU .error-icon{fill:#552222;}#mermaid-svg-gqr6Yr5UNZX87ZD…...
Java EE期末总结(第六章)
一、IoC 1、Bean装配流程 IOC装配流程在代码中的对应就体现在Service这个注解 依赖注入在代码中体现在 ,比如 Resource UserService userService 二、AOP 简化流程,为程序员简便操作 tmd编不下去了我自己看视频都没理解md不弄了; 给两个…...
ASP.NET Core 性能优化:内存缓存
文章目录 前言一、什么是缓存二、内存缓存三、使用内存缓存1)注册内存缓存服务2)注入与基本使用3)高级用法GetOrCreate(避免缓存穿透)异步方法:GetOrCreateAsync(避免缓存穿透)两种过…...
Go小技巧易错点100例(二十六)
本期分享: 1. string转[]byte是否会发生内存拷贝 2. Go程序获取文件的哈希值 正文: string转[]byte是否会发生内存拷贝 在Go语言中,字符串转换为字节数组([]byte)确实会发生内存拷贝。这是因为在Go中,字…...
《算法笔记》3.5小节——入门模拟->进制转换
1022 D进制的AB #include <iostream> using namespace std; int maxn32;int main() {int z[maxn],num0,a,b,d;cin>>a>>b>>d;int resab;do{z[num]res%d;resres/d;}while(res);for (int i num-1; i >0 ; i--) {cout<<z[i];}return 0; }问题 A:…...
【MQTT-协议原理】
MQTT-协议原理 ■ MQTT-协议原理■ MQTT-服务器 称为"消息代理"(Broker)■ MQTT协议中的订阅、主题、会话■ 一、订阅(Subscription)■ 二、会话(Session)■ 三、主题名(Topic Name&a…...
JWT认证服务与授权 .netCore
1.实现流程图 2.认证信息概述 Header:System.IdentityModel.Tokens.Jwt.JwtHeader Payload: System.IdentityModel.Tokens.Jwt.JwtPayload Issuer: http://localhost:7200 Audience: http://localhost:7200 Expiration: 2025/4/11 15:06:14 Claim - Type: http://schemas…...
编译原理 实验二 词法分析程序自动生成工具实验
文章目录 实验环境的准备实验实验预备知识分析案例所要做的任务实战 实验环境的准备 安装flex 安装MinGW MinGW Installation Manager页面 apply changes 下载比较耗时 只看到了一个文件,复制过去 配置环境变量 使用gcc -v检验是否安装完成 实验 实验预备知识…...
【C++初学】课后作业汇总复习(一)概述、输入输出、类的入门——理解封装
一、概述、输入输出、类的入门——理解封装 - 1. ab input two number output sum of a and b; #include <iostream>using namespace std;int main() {int a 0;int b 0;cin >> a >> b;cout << ab <<endl;return 0; }2.输入1~7任意一个整数&…...
数学建模:针对汽车行驶工况构建思路的延伸应用
前言: 汽车行驶工况构建的思简单理解为将采集的大量数据进行“去除干扰、数据处理,缩减至1800S的数据”,并可达到等效替换的目的,可以使在试验室快速复现;相应的解决思路、办法可应用在 “通过能量流采集设备大量采集…...
Qt 之opengl shader language
着色器示例代码 实际运行效果...
dolphinscheduler创建文件夹显示存储未启用的问题--已解决
只要修改api-server/comf/common.properties和standalone-server/conf/common.properties里面的内容就可以了,应为你要靠standalone-server这个服务启动dolphinscheduler-web,其他就算怎么改你重启dolphinscheduler的时候系统也不会识别新的common.prope…...