神经网络稀疏化设计构架方式和原理深度解析
引言:从参数冗余到高效计算——神经网络稀疏化的必然性
当GPT-3以1750亿参数构建起AI模型的"巨无霸"时代,边缘设备却仍在为7B模型3秒以上的推理延迟、14GB的显存占用而挣扎——这种算力需求的指数级增长与硬件资源有限性的尖锐冲突,正成为AI产业落地的核心矛盾[1][2]。深入神经网络内部,我们会发现这种矛盾的根源在于普遍存在的参数冗余现象:权重分布呈现明显的长尾特性(大部分权重值接近零)、神经元激活在推理中常为零值、层间存在可合并的冗余结构,甚至训练时为保证稳定性而引入的过参数,在推理阶段已非必需[3]。
这种冗余不仅推高计算成本——如Waymo的NeRF三维重建需消耗16张A100显卡、耗时2小时——更制约了AI在边缘场景的渗透:全球300亿智能家居设备的实时决策需求、车规级芯片对低能耗的严苛要求,都在呼唤更高效的模型形态[4][5]。
神经网络稀疏化技术正是应对这一挑战的关键解方。其核心逻辑在于依据精准识别并移除冗余参数构建"模型瘦身",在保持性能的同时显著降低计算复杂度与内存消耗。这种思路并非凭空而来:人脑在发育过程中会剪枝超过一半的突触,以细粒度稀疏性实现高能效,而Lottery Ticket假设进一步从理论上验证了"密集网络中藏着性能相当的稀疏子网络"——移动端ResNet-50压缩率75%、NLP模型尺寸减少75%的实践案例,更印证了稀疏化的高效计算价值[6][7]。
从技术特性看,稀疏神经网络(SNNs)不仅具备低复杂度、高可扩展性等优势,甚至在特定任务中性能超越原始密集网络[8]。产业界已经过实践验证其价值:华为引入动态稀疏训练技术后,车规级芯片算力需求从400 TOPS降至100 TOPS,能耗仅为特斯拉FSD的1/3[9]。随着AI芯片市场规模预计2025年达1500亿美元,稀疏化正从工艺选择升级为产业刚需[10]。
本文将围绕**“技巧原理-架构设计-产业落地"三层逻辑**,架构解析神经网络稀疏化的技巧路径:从剪枝、动态稀疏训练等核心方法的原理机制,到面向硬件友好的稀疏架构创新,最终落地到自动驾驶、边缘计算等典型场景的实践方案。通过打通理论到应用的全链条,为读者呈现稀疏化技术如何破解算力困局,推动AI从"云端巨物"走向"边缘精灵”。
核心概念与数学基础:稀疏化的本质与分类
神经网络稀疏化的本质,在于通过选择性保留关键参数或特征,减少模型中的冗余连接与计算开销,同时尽可能维持原有性能。这种“精简”策略使得多数权重参数归零,典型稀疏网络仅激活5%-20%的参数即可实现高效推理,例如MIT 2024年研究显示,当参数压缩至12%时精度损失可控制在0.8%以内[5]。从模型表现来看,稀疏化后的网络呈现“多数权重为零、少数关键权重非零”的分布特征,既降低了存储需求,又通过减少无效计算提升了运行速度。
稀疏化的核心分类:结构化与非结构化
根据剪枝单元与操作粒度的差异,稀疏化主导分为结构化稀疏与非结构化稀疏两大类,二者在硬件适配性、压缩效率等方面呈现显著差异:
对比维度 | 结构化稀疏 | 非结构化稀疏 |
---|---|---|
剪枝单元 | 连续参数组(如特征通道、卷积核、神经元等) | 单个参数(权重或连接) |
硬件依赖 | 硬件友好,可直接复用现有计算算子 | 需专用硬件或稀疏计算库支持 |
压缩比 | 有限(受模型结构限制) | 高(90%稀疏度下精度损失<1%) |
精度损失 | 通常更大(易“误伤”关键结构) | 更小(细粒度保留关键参数) |
核心差异总结:结构化稀疏通过裁剪完整结构单元(如卷积核)生成更小模型,适配普通GPU/CPU但压缩潜力有限;非结构化稀疏以单个参数为单位剪枝,保留矩阵形状但产生大量零值,需专用硬件加速却能实现超高稀疏度。N:M稀疏作为一种细粒度结构化稀疏(如连续M个权重中保留N个非零值),则试图平衡二者优势,兼顾硬件友好性与高稀疏率[11][12]。
从视觉上看,结构化稀疏的权重矩阵呈现“分块缺失”特征(如整行/整列被移除),而非结构化稀疏则表现为矩阵中随机分布的零值点,此种模式差异直接影响后续的硬件加速策略。
稀疏化的数学原理:正则化与阈值平衡
稀疏性的诱导机制源于数学层面的约束设计。以L1正则化为例,其通过在损失函数中引入权重绝对值之和的惩罚项,促使模型将不主要的权重压缩至零。这是因为L1正则化的解空间在原点处存在“角点”,权重更易落在坐标轴上,形成稀疏分布。
阈值τ的选择是稀疏化的核心挑战:τ过小会导致稀疏度过低(冗余参数未充分裁剪),τ过大则可能剪去关键参数导致精度骤降。动态阈值策略(如TEAL方法)依据高斯分布建模权重的显著性,根据参数分布动态调整τ,实现稀疏度与精度的平衡。例如,当权重值服从高斯分布时,τ可设为均值减k倍标准差,既保证裁剪掉多数冗余参数,又避免关键参数被误剪。
此外,稀疏矩阵的低秩性为模型压缩供应了理论支撑:非结构化剪枝后的矩阵奇异值整体下降,通过截断奇异值分解(SVD)可将其转换为小尺寸稠密矩阵,重构误差等于被丢弃奇异值之和,这为稀疏模型的高效推理提供了数学依据[13]。
稀疏化方法体系:从静态剪枝到动态训练
剪枝技术:从权重级到结构级的精细化裁剪
神经网络剪枝技术凭借"裁剪冗余连接-重构模型结构-精度恢复微调"的闭环流程,构建模型轻量化与推理加速的平衡。根据裁剪粒度的不同,可分为非结构化剪枝与结构化剪枝两大技术路径,二者在模型压缩率、硬件适配性和精度保持能力上形成互补。
非结构化剪枝:权重级的细粒度裁剪
非结构化剪枝以单个参数为优化单元,通过识别并移除权重矩阵中绝对值较小的冗余参数,生成含有大量零值的稀疏矩阵。其核心优势在于不改变模型拓扑结构,可在保持精度损失小于1%的前提下实现80%-90%的参数压缩[14][15]。但该方法需依赖硬件对稀疏矩阵运算的原生协助,例如NVIDIA A100的Sparse Tensor Cores可经过2:4稀疏模式将矩阵乘法周期减少50%[12]。
在工程实践中,TEAL方法通过"块级贪心优化"策略提升剪枝效率:先逐层计算参数重要性分数,基于误差敏感度动态分配各层稀疏度配额,再通过块内参数重组减少剪枝后的计算碎片化[13]。而SparseGPT则突破性实现千亿参数模型的单次剪枝,其核心在于经过近似二阶Hessian矩阵快速评估参数贡献度,在不进行全量微调的情况下保持零样本准确率[16]。移动端实测显示,MobileNetV1在80%非结构化稀疏度下,FP32推理速度提升70%,精度损失控制在1%以内[15]:
稀疏度 | 精度损失 | FP32推理加速 | INT8推理加速 |
---|---|---|---|
80% | <1% | 70% | 60% |
90% | 2.7% | 178% | 132% |
结构化剪枝:模型架构的系统性重构
结构化剪枝聚焦于特征通道、卷积核等高维度结构单元的裁剪,直接改变模型拓扑以适配通用计算算子。与非结构化剪枝相比,其优势在于无需特殊硬件支持,可直接复用现有深度学习框架的优化算子[14]。典型案例包括MIT对ResNet-101的通道级剪枝,在模型体积缩减58%的同时,肺结节分类准确率仍保持98.2%[18];特斯拉FSD平台凭借结构化稀疏训练,将BEV模型参数量从2.8亿压缩至1.1亿,功耗降低40%且行人识别F1-score提升0.04[18]。
在混合专家模型(MoE)中,结构化剪枝需重点解决专家选择偏差问题。以Mistral模型为例,其MoE层常出现个别专家被过度激活的现象,导致计算资源浪费。通过基于L1范数的专家重要性评分,可量化各专家对输出的贡献度,结合负载均衡策略动态裁剪低效专家:当某专家的激活频率低于阈值的30%时,将其参数迁移至相邻高贡献专家,最终实现15%的计算量减少且困惑度仅上升0.8[17]。
结构化剪枝关键策略
- 负载均衡:采用滑动窗口统计专家激活频次,避免"热门专家"过载
- 重要性评分:依据L1范数(权重绝对值之和)评估通道/卷积核必要性
- 渐进式裁剪:每次剪枝不超过20%结构单元,降低精度震荡风险
剪枝后微调:精度恢复的工程实践
剪枝操作不可避免导致精度损失,需依据精细化微调实现性能回升。迭代剪枝+Cosine退火学习率是当前主流方案:先以较高学习率(如1e-3)快捷收敛,再凭借余弦函数逐步降低学习率至1e-5,促使模型在稀疏化后重新调整参数分布。在ResNet-50剪枝实验中,该方法使模型在保留50%FLOPs的情况下,Top-1精度从剪枝后的68.7%恢复至75.3%,接近原始模型水平[13]。
微调过程中需注意数据增强策略的适配:对于非结构化剪枝模型,建议保留完整训练集并增加随机擦除概率至0.3;结构化剪枝模型则可采用知识蒸馏,将原始模型的中间层特征作为监督信号。华为在本地人脸识别模型中通过此方案,建立体积缩减80%后仍保持99.1%的识别准确率[4],验证了"训练-剪枝-微调"闭环的工程价值。
(建议配图:剪枝流程示意图,展示"预训练模型→非结构化/结构化剪枝→精度评估→迭代微调→部署"的完整闭环)
正则化技巧:稀疏性的隐式诱导与学习
正则化技术是神经网络稀疏化的核心手段,通过在训练过程中对模型参数施加约束,实现权重的隐式稀疏诱导。其中,L1与L0正则化因其独特的稀疏化机制,成为工业界与学术界的主流选择。
数学原理:L1正则化的稀疏诱导机制
L1正则化通过在损失函数中引入权重绝对值之和的惩罚项,构建稀疏化约束。其总损失函数可表示为交叉熵损失与正则项的叠加,即依据正则化强度λ控制惩罚力度。从优化理论看,这等价于在原始损失最小化问题中加入权重L1范数的约束条件,通过拉格朗日乘子法转化为无约束优化。当λ增大时,约束边界向原点收缩,迫使更多权重值被压缩至零,形成“无效连接”,为后续剪枝奠定基础[1]。此种机制在Mistral模型的FeedForward层中得到验证,通过训练时动态调整λ值,可精准控制权重稀疏比例[1]。
算法实现:L0正则化的掩码采样与梯度优化
相比L1正则化的间接约束,L0正则化凭借可学习掩码直接控制参数的非零性。其核心是将掩码z建模为伯努利分布随机变量,通过重参数化技巧应对掩码采样的不可微问题。典型策略如采用z = tanh(α)·sign(u)的截断机制:α为可学习参数,u从均匀分布采样,经tanh函数非线性变换后,绝对值小于阈值的掩码被强制置零,实现参数的硬稀疏[19]。
针对掩码梯度无法反向传播的障碍,扩展直通估计器(STE)被广泛应用:前向传播使用实际掩码值,反向传播时则忽略tanh的非线性,将梯度直接传递给α参数。清华大学团队进一步提出稀疏精炼直通估计器(SR-STE),利用减轻近似梯度的偏差,使掩码优化更稳定,尤其适用于深层网络的稀疏训练[12]。
案例验证:L0正则化的语音模型剪枝实践
清华大学在语音识别模型中的剪枝实验验证了L0正则化的高效性。利用在训练阶段引入L0正则化优化奇异值剪枝掩码,模型实现72%的参数减少,同时推理速度提升2倍,且语音识别准确率仅下降0.8%[13]。该案例的关键在于掩码对非零参数的精准惩罚:借助动态调整α值,模型自动识别并保留语音特征提取的关键权重,剔除冗余连接,实现精度与效率的平衡。
正则化与剪枝的协同范式:工业界普遍采用“正则化预稀疏+剪枝精优化”的两阶段流程。首先通过L1/L0正则化在训练中诱导权重稀疏分布,使大量参数趋近于零;再通过结构化剪枝移除这些“无效连接”,避免直接剪枝导致的模型震荡。这种协同策略可将剪枝后的精度损失控制在2%以内,参数压缩率提升30%~50%。
除L1/L0外,核范数正则化、变分推理正则化等技术也在特定场景发挥作用。例如,核范数正则化通过限制矩阵核范数,防止剪枝后特征矩阵秩上升,减少SVD重构误差[13];变分推理正则化则通过稀疏子空间变分推理(SSVI),在高维内容中完成特征的对数级降维[20]。这些技术共同构成了稀疏化正则化的途径体系,为神经网络的高效部署提供多样化工具。
动态稀疏训练:从“静态裁剪”到“动态进化”
传统神经网络稀疏化技巧中,静态剪枝如同给网络做“一次性截肢手术”——在训练后固定稀疏模式,既无法响应数据分布变化,也难以恢复被误剪的关键连接。而动态稀疏训练则完成了从“被动裁剪”到“主动进化”的跨越:通过在训练过程中动态调整连接结构与稀疏度,让网络像生物神经系统般具备“用进废退”的自适应能力[21]。这种进化式设计带来了精度与效率的双重突破:华为通过Dynamic Sparsity Learning技术仅保留5%关键神经元连接,实现模型体积压缩80%的同时,推理速度提升3倍,能耗降至特斯拉FSD体系的1/3;特斯拉FSD系统则通过结构化稀疏训练将BEV模型参数量从2.8亿压缩至1.1亿,功耗降低40%,行人识别F1-score反而提升0.04[9]。
算法创新:从“固定模式”到“动态协同”
动态稀疏训练的核心突破在于稀疏模式的自适应优化机制。以动态分层稀疏策略(NSA)为例,其通过“粗粒度压缩+细粒度选择”的双阶段设计实现算术强度平衡:粗粒度层面依据聚类筛选64k文本中的关键语义块,细粒度层面基于注意力评分捕捉高频关键词,使预训练计算量减少40%,同时与全注意力模型的困惑度差异控制在0.5%以内[22]。这种设计直接消除了传统稀疏化中“计算量与内存访问比失衡”的问题,在64k长序列解码任务中实现3倍加速,印证了“算术强度平衡”对性能的关键作用[23]。
更先进的动态稀疏架构采用双层级联剪枝策略:全局调度器(如CosineScheduler)控制整体稀疏度变化趋势(目标稀疏度0.6),层级适配器则根据局部梯度特征动态调整剪枝阈值,通过DynamicScheduler类实现掩码的实时更新[24]。这种设计使Adaptive-Sparse-Trainer在重训练稀疏LLM时,将稠密模型与2:4半结构化稀疏模型的困惑度差距缩小至0.6,零样本准确率差距仅1.16%,且训练成本仅为传统途径的0.4%[25]。生物启发机制进一步增强了动态性——Masked Gradient Propagation算法模仿人脑突触“用进废退”原理,使反向传播仅作用于关键神经元,让ResNet级模型在树莓派上构建毫秒级语音指令响应[4]。
硬件协同:从算法创新到落地加速
动态稀疏的性能释放离不开硬件支持。NVIDIA A100的稀疏Tensor Core在2:4模式下,通过识别并跳过零值元素,使显存带宽需求降低50%,这要求动态稀疏算法在设计时需匹配硬件的稀疏数据格式[3]。例如,非结构化稀疏训练需在PaddleSlim等框架中选择动态图(高效实验)或静态图(生产部署)模式,其中静态图模式通过预先优化稀疏计算图,进一步提升硬件利用率[26]。
动态稀疏训练核心流程
- 准备阶段:获取预训练模型与全量数据,如华为MDC 810平台基于预训练BEV模型启动稀疏优化[9]。
- 虚拟稀疏测试:利用虚拟稀疏接口测试不同稀疏度下的性能,确定最佳阈值(如5%关键连接)[14]。
- 正式训练:启用双层剪枝策略,动态调整掩码(如达芬奇Xi系统根据手术场景切换视觉模型,耗时缩短17分钟)[18]。
动态稀疏训练流程图直观展示了这一过程:稀疏度调度模块根据全局策略生成目标稀疏度,掩码更新模块结合梯度反馈实时调整连接状态,最终输出既保持精度又满足硬件效率的动态稀疏模型。这种“算法-硬件协同进化”的范式,正推动神经网络稀疏化从“静态优化”迈向“自适应智能”的新阶段。
架构创新与硬件协同:稀疏化的工程化突破
稀疏化专用架构:从算法到芯片的深度融合
稀疏化技术的终极价值,正借助“算法创新-硬件重构”的深度协同逐步释放。从底层存储到计算调度,再到专用芯片设计,三大技术脉络共同构建起高效能稀疏计算体系,让神经网络在“瘦身”的同时实现性能飞跃。
存内计算:硬件原生的稀疏表达
传统稀疏计算中,索引存储与访问往往消耗大量能耗。存内稀疏架构通过硬件创新将这一痛点从根源解决——采用二硫化钼铁电晶体管构建“免索引稀疏单元”,每个单元集成两个核心组件:模拟铁电晶体管直接存储权重数据,数字铁电晶体管则编码稀疏性掩码(直接标记权重是否参与计算)。这种设计省去了传统架构中独立存储索引表的环节,实测可减少90%以上索引能耗。
在EMNIST手写字母分类任务中,该架构在75%稀疏率下仍保持98.4%的识别精度,证明了硬件级稀疏支持在能效与精度间的出色平衡[6]。其核心突破在于将稀疏化从算法层下沉到存储层:权重与掩码的物理共置,使计算单元可直接跳过零值操作,避免无效数据搬移。
存内稀疏单元的核心优势
- 硬件级掩码编码:无需软件索引表,通过数字铁电晶体管直接标记有效权重
- 能效跃升:减少90%索引能耗,75%稀疏率下精度保持98.4%(EMNIST任务)
- 存储效率:权重与掩码共置,物理空间利用率提升40%以上
FPGA加速:动静协同的调度艺术
FPGA凭借可编程特性,成为稀疏算法验证与部署的理想载体。FlightVGM加速器开创性地将激活稀疏化与混合精度计算融合,在AMD V80 FPGA上实现“静态编译+动态调度”的双层优化:静态阶段通过算子融合技能将稀疏卷积、池化等操作编译为硬件原生指令,减少片上材料交互;动态阶段则根据实时计算负载调整任务优先级,确保高稀疏区域优先占用计算资源。
这种策略带来显著性能提升:通过浮点-定点混合精度DSP58扩展架构,其峰值计算性能提升3.26倍,最终在相同任务下,比NVIDIA 3090 GPU的能效高4.49倍,吞吐量提升1.3倍[27]。对比传统GPU的“一刀切”调度,FlightVGM证明了稀疏感知的动态资源分配是释放硬件潜力的关键——当输入内容稀疏度波动时,动态优先级调度可将资源利用率维持在85%以上,而固定调度策略则可能降至50%以下。
ASIC设计:专用芯片的能效革命
ASIC作为稀疏计算的“终极形态”,通过架构级定制将能效比推向新高度。墨芯Antoum芯片采用“双稀疏化算法+通用架构”设计,支撑高达32倍稀疏率,在保持CNN、Transformer等模型通用性的同时,将同等运算量耗电量降至传统芯片的1/10,理论能效比提升潜力达10倍[28]。其核心在于硬件层面实现权重与激活的双稀疏检测,配合可配置计算单元,动态适配不同模型的稀疏模式。
行业巨头同样在架构层深耕:NVIDIA A100 GPU集成2:4细粒度稀疏加速单元,通过硬件级支撑权重矩阵压缩,使特定模型推理吞吐量提升100%;第三代Tensor Core在结构化稀疏模式下,理论算力直接翻倍[29]。谷歌TPU v5与NVIDIA H200则更进一步,将稀疏计算单元嵌入数据流路径,实现从存储到计算的全链路稀疏优化,在大语言模型推理中能效比提升50%以上[10]。
从铁电晶体管的微观存储创新,到FPGA的灵活调度,再到ASIC的架构级定制,稀疏化专用架构正在重新定义AI计算的能效边界。此种“算法-硬件”的协同进化,不仅让神经网络摆脱对“算力堆砌”的依赖,更让边缘设备、数据中心等场景的高效AI部署成为可能。
软硬件协同优化:稀疏模型的部署实践
稀疏模型的高效落地需打通“训练-转换-部署”全流程,通过软件工具链优化与硬件架构创新的深度协同,实现从算法稀疏性到硬件加速的端到端闭环。以下从模型转换、推理引擎优化、硬件加速三个关键环节,解析稀疏模型的工业化部署实践。
一、模型转换:从稠密到稀疏的桥梁
连接训练与部署的核心环节,需在保持精度的前提下,将稀疏化后的模型转化为硬件可高效执行的格式。Paddle-Lite提供的就是模型转换虚拟稀疏测试工具可快速评估不同稀疏度下的性能表现,通过关键参数控制转换效果:sparse_model
(启用稀疏优化开关)和sparse_threshold
(参数矩阵稀疏度阈值)。典型转换命令示例如下:
Paddle-Lite稀疏模型转换命令
./OPT --model_dir=./mobilenet_v1_quant \
--optimize_out_type=naive_buffer \
--optimize_out=mobilenet_v1_quant_opt \
--valid_targets=arm \
--sparse_model=true \
--sparse_threshold=0.5
该命令将稠密模型转换为稀疏度50%的优化模型,转换后可通过C++接口直接在Android设备加载推理[26]。
值得注意的是,非结构化稀疏INT8模型可能因引入INT32类型索引信息,在稀疏度低于75%时体积反而大于稠密INT8模型,需根据硬件存储特性动态调整稀疏阈值[14]。飞桨端到端非结构化稀疏系统进一步支持FP32/INT8稀疏权重的全流程训练与推理,结合GMP训练策略和移动端推理优化,达成从算法设计到边缘部署的无缝衔接[15]。
二、推理引擎:动态调度释放稀疏算力
推理引擎需针对稀疏模型的非规则数据分布特性,重构计算流程与资源调度逻辑。SparseRT推理引擎通过“自适应调度”机制,基于算子优先级动态分配硬件资源——例如将高稀疏度卷积算子分配至专用稀疏计算单元,低稀疏度全连接层调度至通用计算核心,实现算力负载的智能均衡[28]。其配套工具链SparseOPT可将稠密模型一键转化为稀疏格式,结合SOLA Runtime给出灵活的硬件控制接口,支持生产环境下的服务化部署。
编译器层面,基于MLIR中间表示的优化映射科技进一步提升执行效率:通过稀疏模式融合将相邻剪枝操合并为单一稀疏计算指令,信息布局转换在线重组张量存储格式以匹配CUDA Core访问模式,异步流水线解耦权重更新与稀疏掩码计算以隐藏通信延迟[24]。例如在64k长序列解码场景中,借助解码流程重构(块内局部交互+块间全局路由),配合KV缓存动态逐出策略,可实现显存占用降至全注意力模型的12%,解码速度提升3倍[22][23]。
三、硬件加速:专用架构释放稀疏潜力
硬件层面对稀疏性的原生帮助,是突破性能瓶颈的关键。以Antoum芯片为例,其针对LLM推理设计的双端稀疏张量核,可协同优化矩阵乘法与卷积计算(DNN核心计算模式),在硬件开销适中的情况下解锁双端稀疏性潜力。实测显示,该芯片单卡承受671B参数模型部署,显存占用仅为传统GPU的12%,性能提升达一个数量级[30]。
不同硬件平台的稀疏加速策略各具特色:
- GPU方案:NVIDIA A100通过MIG科技将单卡划分为7个独立实例,每个实例调用结构化稀疏处理单元,结合600GB/s NVLink实现多任务并行下的效率叠加[29];
- 专用ASIC:芯原NPU融合稀疏感知加速与高效内存管理,协助混合精度计算,在智慧手机与AI PC量产中实现计算负载降低40%[31];
- 边缘设备:华为动态稀疏训练技能使车规级芯片算力需求从400TOPS降至100TOPS,NVIDIA DRIVE Thor芯片实现稀疏矩阵计算15倍加速,满足车载场景低延迟需求[5][9]。
硬件稀疏加速典型场景
- 大模型部署:Antoum芯片671B模型单卡部署,显存占用12%
- 车载实时推理:DRIVE Thor稀疏矩阵计算15倍加速
- 边缘设备适配:动态稀疏度切换(低→高)提升QoS至99.9%
通过“训练-转换-部署”全链路的软硬件协同设计,稀疏模型正逐步突破算力与存储限制,在大模型落地、边缘智能等场景中展现出巨大潜力。未来随着存内计算、事件驱动架构等技术的发展,稀疏计算的效能提升空间将进一步扩大。
产业应用与案例解析:稀疏化的价值落地
NLP与大语言模型:推理效率的数量级提升
随着大语言模型参数规模突破万亿,推理效率已成为制约其落地的核心瓶颈。从预训练阶段的结构优化,到推理过程的动态加速,再到多模态场景的适应性扩展,稀疏化技巧正利用"减法艺术"实现效率与精度的平衡。
预训练优化:从源头削减冗余参数
在模型诞生之初便植入稀疏基因,可大幅降低后续推理成本。TEAL(Training-Free Activation Sparsity in LLMs)作为无训练稀疏方案的代表,采用幅度剪枝策略对隐藏状态直接稀疏化,完美适配Llama、Mistral等架构的高斯分布激活特性。实验显示,在Llama-2 70B模型上完成40%稀疏度时,困惑度(PPL)仅增加0.5,几乎不影响生成质量;当稀疏度提升至50%,全模型性能损失仍控制在可接受范围,且无需任何微调[32]。
对于预训练模型的通用压缩,结构化剪枝展现出显著优势。例如基于L0正则化的WavLM语音模型剪枝,去除72%参数后推理速度直接翻倍,且一次剪枝可无缝迁移至语音识别、情感分析等多下游任务[19]。而SparseGPT首次实现千亿参数模型的单次剪枝,在OPT-175B上达成50%稀疏率,零样本任务性能损失小于2%,为超大规模模型压缩提供了高效路径[32]。
核心突破:无训练稀疏技巧(如TEAL)通过匹配模型固有激活分布,实现"即插即用"的稀疏化,避免了传统剪枝需大量微调的弊端。在7B-70B规模模型上,40%-50%的稀疏度可稳定达成1.5倍以上加速,且精度损失近乎可忽略。
推理加速:动态稀疏与硬件协同
推理阶段的稀疏化优化更注重实际部署效率。TEAL凭借块级稀疏计算核优化,在40%稀疏度下达成1.53倍推理加速,50%稀疏度时提升至1.8倍,且与权重量化技术协同后效果更佳[32]。而NSA(动态稀疏注意力)机制则针对长上下文场景,凭借"动态路由"选择性激活关键注意力头,在64k序列长度下解码速度达到全注意力的3倍,前向传播速度提升2.8倍,后向传播提升2.1倍[22][23]。
硬件层面,软硬协同设计进一步释放稀疏潜力。墨芯推出的大模型推理引擎,通过软件算法与专用芯片的双稀疏协同,实现单卡即可运行大模型,算力较传统GPU方案成倍数提升[28]。芯原NPU IP则针对移动端场景,为LLaMA-7B等模型提供高效稀疏算力支撑,使生成式AI在手机端的低延迟推理成为可能[31]。
多场景适配:从文本到跨模态
稀疏化技术的泛化能力使其在多任务中表现亮眼。在法律合同解析任务中,NSA模型跨段落依赖识别准确率达89.7%;金融报告分析场景下,支持10万Token超长输入,关键指标识别召回率提升至92%[22]。代码生成领域,NSA可建模20万行代码库上下文,函数调用准确率较窗口注意力机制提升15%[23]。
对于特定架构优化,SparseSSM框架为Mamba类模型提供解决方案,剪枝50%的SSM权重后无需微调,零样本准确率保持不变,有效解除参数规模过大导致的部署障碍[16]。而Mistral模型通过L1正则化剪枝,体积减少40%的同时推理速度提升35%,核心性能指标保留95%以上[1]。
不同稀疏化方法性能对比
方法 | 适用模型 | 稀疏率/压缩比 | 推理加速比 | 精度损失指标 |
---|---|---|---|---|
TEAL(幅度剪枝) | Llama/Mistral | 40%-50% | 1.53×-1.8× | PPL增加0.5(40%稀疏度) |
SparseGPT | OPT-175B | 50% | - | 零样本任务性能损失<2% |
NSA(动态注意力) | 长上下文模型 | - | 3×(64k序列) | 法律合同解析准确率89.7% |
Mistral剪枝 | Mistral系列 | 40%体积减少 | 35% | 性能保留95%以上 |
BERT结构化剪枝 | BERT-base | 75%体积减少 | 延迟降低58% | GLUE平均得分下降1.7% |
WavLM剪枝 | WavLM语音模型 | 72%参数去除 | 2× | 多任务性能无显著损失 |
通过上述技术路径,大语言模型正逐步突破"参数规模-推理效率"的两难困境。从预训练阶段的结构精简,到推理时的动态稀疏调度,再到硬件层的协同优化,稀疏化技术正以"数量级提升"的加速度推动NLP模型走向高效化、轻量化部署。未来随着混合稀疏(如权值+激活+注意力联合稀疏)与自动化工具链(如SparseML)的成熟,大模型的"瘦身革命"将覆盖更多模态与场景。
计算机视觉与自动驾驶:实时性与鲁棒性的平衡
当自动驾驶汽车以120公里/小时的速度行驶时,每0.1秒的决策延迟都可能关乎生死。这背后,神经网络必须在毫秒级内达成环境感知、目标识别到路径规划的全流程计算——稀疏化技术正成为应对这一矛盾的关键,它像给神经网络"精准瘦身",在剔除冗余参数的同时,反而让核心特征识别能力变得更敏锐。
从平面到立体:稀疏化重构视觉感知链路
在2D视觉领域,SparseViT模型通过创新的"窗口激活修剪"技术,为高分辨率图像识别开辟了高效路径。其核心逻辑是在Transformer架构中动态识别并修剪贡献度低的注意力窗口,使语义分割任务的计算量直接减少60%,而关键指标mIoU(平均交并比)仅下降不到1%[33]。这种"精打细算"的设计让车载摄像头在处理1080P视频流时,帧率提升至传统模型的1.3倍,相当于从"每秒看24张照片"升级到"31张",为实时决策争取了宝贵时间。
从平面图像到立体空间感知,稀疏化技术同样展现出强大潜力。在3D目标检测任务中,torchsparse框架通过优化稀疏点云数据处理流程,在A100 GPU上实现了比传统引擎快1.7-3.3倍的推理速度[34]。更令人关注的是SparseOcc全稀疏3D全景占用网络,它仅对非自由空间区域建模,配合稀疏实例查询机制,在Occ3D nuScenes数据集上实现25.4 FPS的实时推理速度,同时保持26.0 mIoU的精度——这意味着自动驾驶系统能像"立体视觉敏锐的驾驶员",在困难路况下快速构建周围环境的三维轮廓[35]。
关键突破:稀疏化不是简单"减法",而是通过精准的参数筛选,让模型学会"忽略干扰、聚焦关键"。例如在暴雨天气中,传统模型可能被雨水反光干扰,而稀疏化模型能自动增强对车道线、障碍物等核心特征的敏感性,这正是其鲁棒性提升的核心逻辑。
车规级部署:从实验室到真实路况的跨越
当技术走出实验室,车规级部署对可靠性和效率的要求更为严苛。特斯拉FSD系统的实践极具代表性:通过结构化稀疏训练,其BEV(鸟瞰图)模型参数量从2.8亿压缩至1.1亿,功耗降低40%的同时,行人识别F1-score反而提升0.04[18]。这组数据打破了"效率与精度不可兼得"的固有认知——就像将厚重的百科全书浓缩成便携手册,却保留了所有关键知识点。
极端环境下的表现更能印证稀疏化的价值。Waymo最新路测数据显示,剪枝后的多模态融合模型在暴雨天气中,车道线识别准确率达到92.7%,较原模型提升11%[18];华为动态稀疏训练技术则将MDC 810平台的决策延迟从120ms降至40ms,相当于人类驾驶员从"0.2秒反应"提速到"0.04秒",在紧急情况下能多争取1.5个车身距离的制动空间[9]。这些进展背后,是稀疏化技术对特征敏感性的深度优化——它让模型在复杂场景中像经验丰富的司机一样,飞快抓住"路面水渍中的车道线""雨幕后的行人轮廓"等关键线索。
如今,稀疏化已成为自动驾驶规模化落地的核心推手。ABI Research预测,到2027年83%的自动驾驶系统将采用稀疏化3D重建方案,这不仅会带动车载计算芯片市场规模突破420亿美元,更将让每一辆自动驾驶汽车都拥有"更聪明的大脑"和"更敏捷的反应"[5]。从像素级的参数修剪到城市级的道路感知,稀疏化正在重新定义智能驾驶的效率与安全边界。
挑战与未来方向:稀疏化技术的下一站
当神经网络稀疏化技术在图像识别、自然语言处理等领域持续突破时,一场"算力效率革命"的深水区挑战正逐渐显现。从算法失效到硬件瓶颈,从理论空白到工具链断裂,稀疏化技能正站在需系统性突破的十字路口。
一、当前困境:稀疏化技能的"成长烦恼"
算法泛化能力的双重困境
传统稀疏算法在复杂任务中正遭遇"滑铁卢"。《Sparsity May Cry》研究团队在包含4类任务、10个数据集的SMC-bench基准测试中发现,即使在5%的低稀疏度下,基于幅度或梯度的主流剪枝算法也可能完全失效[8]。其核心症结在于大模型训练中的"懒惰训练机制"(lazy regime)——随着模型规模扩大,梯度更新逐渐集中于少数参数,导致剪枝后关键特征提取能力骤降。
动态稀疏模式的跨领域迁移能力同样堪忧。当前神经稀疏架构(NSA)依赖任务特定信息优化稀疏策略,当从文本领域迁移至图像领域时,性能普遍下降10-15%[22]。此种"定制化依赖"使得稀疏模型难以像稠密模型那样实现通用化部署。
硬件与理论的双重枷锁
硬件层面,非结构化剪枝仍未摆脱"专用性陷阱"。尽管理论上稀疏矩阵可带来显著加速,但通用GPU对稀疏计算的实际加速比仅为理论值的60%[13]。更棘手的是索引瓶颈——稀疏硬件需反复与外部存储交互,导致能耗和时延开销激增,成为边缘设备部署的"卡脖子"问题[6]。
理论基础的薄弱同样制约发展。稀疏子空间优化的泛化界证明、动态稀疏模式的收敛性分析等关键数学工具尚未成熟。虽然稀疏随机变分推断(SSVI)提供了线性泛化界,但样本复杂度与参数数量的依赖关系仍不明确,这使得稀疏模型的优化过程如同"在黑暗中调整琴弦"[20]。
产业落地三重挑战
- 工具链断裂:NeuralMagic于2025年6月停止SparseML、DeepSparse等社区版器具开发,反映商业可持续性困境[36]
- 伦理合规压力:欧盟AI法案要求硬件"可解释性",需在工具包中嵌入伦理模块确保公平性[10]
- 无最优解风险:部分稀疏ReLU网络的稀疏模式可能不存在最优解,优化算法存在发散风险[37]
二、突破方向:从算法融合到硬件革新
元学习驱动的稀疏调度革命
针对动态稀疏模式的泛化难题,元学习框架正展现出破局潜力。RigL算法通过动态重连策略,在训练过程中实时调整神经元连接强度,使稀疏模型在跨任务迁移时性能损失减少40%[8]。更前沿的探索聚焦于"通用稀疏路由机制"——通过多模态数据训练元稀疏策略,让模型自主学习不同任务的特征提取路径,目前在文本-图像跨领域迁移中已将性能下降控制在5%以内[22]。
神经架构搜索与稀疏化的深度融合
LightSNN的突破性进展证明了NAS与稀疏化融合的巨大潜力。该模型采用无训练剪枝的NAS机制,在保持精度损失小于1%的前提下,搭建了98倍的推理加速[38]。其核心创新在于将稀疏约束直接嵌入架构搜索空间,使网络在诞生之初就具备"天生稀疏"的基因。这种"设计即优化"的思路,正逐步取代传统"先训练后剪枝"的低效模式。
硬件与数据策略的协同进化
硬件创新呈现两条清晰路径:三维集成与存内计算。南京大学团队提出基于MoS₂二维半导体的三维单片集成方案,可突破先进封装互联密度局限,将稀疏访问能耗降低60%[6];清华大学则研发支持可变稀疏度的Tensor Core原型,通过动态调整计算单元激活比例,使通用GPU对稀疏矩阵的加速比提升至理论值的85%[13]。
数据层面,合成数据与剪枝的结合正颠覆传统训练范式。MIT团队提出"蒸馏数据+迭代幅度剪枝(IMP)"策略,在仅使用150倍更少训练材料的情况下,构建了与传统IMP相当的性能[39]。这种"小数据稀疏化"技术,为数据稀缺场景下的模型部署开辟了新路径。
三、未来愿景:当稀疏化遇见量子与终身学习
量子计算:稀疏化的终极算力伙伴
清华大学团队在《Nature Machine Intelligence》发表的量子稀疏编码研究,为稀疏化科技打开了想象空间。他们利用量子退火算法选择最优神经元组合,在70%剪枝率下仍保持92%的任务精度,较传统方法提升15个百分点[5]。量子叠加态天然适配稀疏矩阵的概率性表示,有望彻底解决稀疏索引的存储墙问题。
终身学习:让稀疏模型持续进化
Meta最新提出的"神经路径分区"技术,借助动态容量分配破解了稀疏模型的灾难性遗忘。该方法将网络划分为固定基础路径与动态任务路径,新任务仅占用10-15%的新增稀疏连接,使模型在持续学习20个任务后仍保持初始性能的90%[4]。此种"成长而不膨胀"的特性,为构建可持续进化的AI体系给予了可能。
从Gartner将"结构化剪枝技巧"列入2025年十大战略科技趋势,到WHO预测2027年50%基层医疗机构部署剪枝版诊断AI,稀疏化技术正从实验室走向产业深水区[18]。这场算力效率革命的下一站,不仅需要算法与硬件的协同突破,更需在理论根基与伦理框架上建立新范式——当稀疏化技术真正实现"智能的减法艺术",AI的普惠化时代或将加速到来。
结语:稀疏化——AI高效化的核心引擎
当大语言模型参数规模突破万亿、自动驾驶芯片算力迈向千TOPS时,神经网络正面临一个关键命题:如何用更高效的方式承载智能?稀疏化技术给出了答案——利用识别并移除冗余参数和结构,它不仅构建了模型压缩、推理加速与能耗降低,更从根本上改变了AI的发展范式,成为推动人工智能高效化落地的核心引擎。
从“可选优化”到“必选技术”:稀疏化的技术跃迁
在AI发展初期,稀疏化更多被视为模型部署时的“锦上添花”。但随着模型规模呈指数级增长,计算资源与内存成本的矛盾日益尖锐,稀疏化已从“可选优化”升级为“必选技能”。经过剪枝、正则化、动态训练等算法创新,稀疏化能在保持性能的前提下实现75%参数量压缩稀疏化技术的核心洞察。就是,华为动态稀疏训练技术甚至实现了模型体积压缩80%、推理速度提升3倍的突破。从无训练依赖的TEAL方法到确定性稀疏架构(如拉马努金图),稀疏化正不断克服训练依赖和性能损失瓶颈,让“小而精”的模型成为可能。正如受人脑稀疏连接特性启发的研究所示,智能本就不应该密集的参数堆砌,而是精准的信息捕获——这正
驱动产业变革:从芯片架构到场景落地的全链条创新
技术突破必然驱动产业变革。稀疏化正深刻重塑AI产业链,尤其在芯片架构设计领域展现出强大推动力。Antoum的双稀疏设计、芯原NPU结合稀疏化优化给出超40 TOPS算力,以及TPU架构的稀疏优化,都印证了“算法-硬件协同”的创新路径。在应用端,稀疏化技能已在自动驾驶(25.4 FPS实时性)、NLP(3倍推理加速)、边缘设备部署等场景实现效率突破。例如,torchsparse技术突破点云稀疏计算瓶颈,让自动驾驶感知平台更高效;语音模型压缩技术则使HuBERT等大模型在嵌入式设备上部署成为现实,真正推动AI从“实验室”走向“普惠应用”。
绿色AI与碳中和:稀疏化的社会价值升华
稀疏化的价值不止于科技与产业,更延伸至社会可持续发展层面。“稀疏化+绿色AI”正成为应对AI高能耗问题的关键方案,据测算,其可使模型训练能耗降低40%,显著减少AI产业的碳足迹。在二维半导体等新材料技术的支撑下,稀疏硬件的能效比持续提升,为边缘计算、智能家居等场景提供低功耗解决方案。这种“用更少资源做更多事”的理念,不仅响应了全球碳中和目标,更让AI手艺突破资源限制,在医疗、教育等公共领域达成更广泛的普惠。
核心启示:稀疏化的本质,正如Hugging Face CTO Julien Chaumond所言——“我们正在教会AI像人类一样,用有限的注意力理解无限复杂的世界”。从技术突破到产业革新,再到社会价值,稀疏化以“减法”思维重构AI发展逻辑,最终搭建“用更少参数,做更多事情”的智能高效化愿景。这不仅是技术路径的选择,更是AI可持续发展的必然方向。
未来,随着评估体系完善与算法瓶颈突破,稀疏化将持续深化“算法-硬件-场景”的协同创新,让人工智能在效率与性能的平衡中,真正成为推动社会进步的绿色引擎。
相关文章:
神经网络稀疏化设计构架方式和原理深度解析
神经网络稀疏化设计构架方式和原理深度解析pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", monospace !impo…...
天下拍拍卖系统:二方系统也能扩展三方平台功能
过去很多年,大多数拍卖公司为了快速开展线上拍卖会,普遍选择入驻阿里拍卖、京东拍卖、公拍网等三方平台——功能齐全、流量大、上线快。但随着业务深入,企业逐渐发现三方平台存在一些限制,想要私有化搭建一套属于拍卖公司自己的拍卖系统,但同时可能也想保留一些三方平台的…...
express使用redis
我用的pnpm pnpm add express redisconst express = require(express); const redis = require(redis); var app = express() var port = 3000 // 创建 Redis 客户端实例 const redisClient = redis.createClient({url: redis://172.17.0.185:6379 ,password: b7371d927aec647d…...
day07 课程
day07 课程课程:https://www.bilibili.com/video/BV1o4411M71o?spm_id_from=333.788.videopod.episodes&p=148 7.1 字典的应用场景7.2 创建字典的语法7.3 字典常用操作之新增7.4 字典常用操作之删除7.5 字典常用操作之修改———————————————————————…...
111
111111111...
排序实现java - 教程
排序实现java - 教程pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", monospace !important; font-size: 14p…...
.net core 发布到 iis 步骤
1. 打开服务器管理器,管理,添加角色和功能,把 IIS 相关的全勾上。 2. 安装.net core 环境,需要 ASP.NET Core 运行时的 Hosting Bundle 版本,其他版本没用。 3. 安装 webdeploy, 服务器防火墙打开8172端口。 4. 在 IIS 上创建站点, 配置的文件夹权限需要添加 everyone 的…...
kylin SP2安装mysql8.4.5
环境:OS:kylin SP2mysql:8.4.5 glibc2.17,建议安装glibc.2.28版本 查看系统glibc版本[root@localhost soft]# ldd --version ldd (GNU libc) 2.28 Copyright (C) 2018 Free Software Foundation, Inc. This is free software; see the source for copying conditions. There i…...
微信社群机器人接口
微信个人号开发API/文档/教程 大家一般需求点无非是以下几个需求: 1.开发个人微信营销系统 2.开发自定义的微信机器人, 3.开发微信智能聊天客服系统 4.定制行业内的群数据分析功能需求很简单,业务代码贼好撸,但是如何和微信交互呢,如何取到微信数据调用相关聊天接口呢,具体…...
C++的枚举类
语法:enum class 枚举类名 [: 底层类型] {枚举值1,枚举值2,... };一般形式(当然我们一般默认成员都显转int,因此底层类型一般不写) C++的枚举类: 在C++中,enum class是一种类型安全的枚举类型,它比传统的enum类型提供了更好的作用域控制和类型安全性。使用enum class可以…...
Revit二次开发 钢筋生成API(一)
1、自由钢筋生成API创建不受约束的自由形式钢筋。以后不能将约束添加到此钢筋。public static Rebar CreateFreeForm(Document doc,RebarBarType barType,Element host,IList<CurveLoop> curves,out RebarFreeFormValidationResult error )通过此方法,可以创建一个或者多…...
方法
什么是方法 方法是程序中最小的执行单位 实际开发中:重复的代码,具有独立功能的代码可以抽取到方法当中 实际开发中方法的好处:可以提高代码的复用性 提高代码的可维护性 最简单的方法定义和调用 方法的格式:把一些代码打包在一起,用到时候就调用 方法定义:把一些代码打包在…...
详细介绍:PHP基础-语法初步(第七天)
详细介绍:PHP基础-语法初步(第七天)pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", monospace !importan…...
如何通过Python SDK 删除 Collection
本文介绍如何通过Python SDK删除一个已创建的Collection。 重要 删除Collection后,该Collection所有数据将删除且不可恢复,请谨慎操作。 前提条件已创建Cluster:创建Cluster已获得API-KEY:API-KEY管理已安装最新版SDK:安装DashVector SDK接口定义 Python示例: Client.del…...
maven项目连接DM数据库和基本sql使用
maven项目连接DM数据库和基本sql使用直接引入Maven依赖<!-- DM数据库JDBC驱动 --> <dependency><groupId>com.dameng</groupId><artifactId>DmJdbcDriver18</artifactId><version>8.1.3.140</version> </dependency>dem…...
【中国计算机学会CCF主办】第六届人工智能、大数据与算法国际学术会议(CAIBDA 2026)
第六届人工智能、大数据与算法国际学术会议(CAIBDA 2026) 2026 6th International Conference on Artificial Intelligence, Big Data and Algorithms (CAIBDA 2026)重要信息 大会时间:2026年6月12-14日 大会地点:天津(线上同步进行) 大会官网:www.caibda.org *为报名…...
图片 - voasem
常用工具binwalkforemostwinhex010filestegsolvezstegF5StegdetectSteghideoutguessexiftoolstegseek解题思路 一.未知文件类型 当文件没有后缀名或者有后缀名却无法打开时,我们需要去识别图片类型 1.可以用file命令进行识别2.通过以下应用查看文件头类型---->然后判断出文…...
图片大全 - voasem
常用工具binwalkforemostwinhex010filestegsolvezstegF5StegdetectSteghideoutguessexiftoolstegseek解题思路 一.未知文件类型 当文件没有后缀名或者有后缀名却无法打开时,我们需要去识别图片类型 1.可以用file命令进行识别2.通过以下应用查看文件头类型---->然后判断出文…...
面试时让你设计一个“朋友圈点赞”功能测试,如何回答才出彩?
希望这篇文章能够帮助你在面试中脱颖而出,不仅拿到心仪的offer,更展现出你作为优秀测试工程师的潜质和能力。祝你面试成功!朋友圈点赞,一个看似简单的功能,背后却涉及复杂的技术逻辑和用户体验考量。当面试官抛出这个问题时,他真正想考察的不是你能想到多少测试点,而是你…...
企训宝教育培训微信小程序系统
1. 概述总结 企训宝教育培训小程序系统包含微信小程序和抖音小程序相关的源码及定制开发服务。其交付方式为微擎系统交付,微擎系统是一款基于 PHP 开发的开源应用生态系统,主要用于快速搭建微信公众号、小程序等应用,同时支持 Web 系统开发与部署,该程序源码未加密,为官方…...
Inventor Professional 2026.1.1 产品设计与工程制图
描述 Autodesk Inventor提供了专业级机械设计、文档编制和产品仿真工具。参数化建模、直接建模、自由形状建模和基于规则的设计功能的强大组合。用于钣金、结构件设计、三维布管、电缆和线束、演示、渲染、仿真、机床设计等的集成工具。值得信赖的 DWG™ 兼容性,强大的基于模型…...
叮当计步微信小程序系统
1. 概述总结 叮当计步小程序系统是基于微擎系统交付的应用,微擎系统是一款基于 PHP 开发的开源应用生态系统,主要用于快速搭建微信公众号、小程序等应用,同时支持 Web 系统开发与部署。该计步系统历经数月研发,投入 20 多万研发费用,注重数据可靠性、系统扩展性和高并发支…...
fetch-event-source踩坑sse(getReader)后续 IOS全量返回问题
这两天在做智能聊天,遇到了和这个博主相同的问题,我按这个改了,https://blog.csdn.net/a598829181/article/details/135913704,但是也停留在IOS会全量返回。 后来试了fetch 模拟,失败,增加各种IOS兼容,web-streams-polyfill,失败。试了event-source-polyfill可以,但是会…...
P12508 「ROI 2025 Day2」程序员的日常
在天数 \(k\) 固定时,定义 \(p_i\) 为第 \(i\) 个连续段的起点。那么一个贪心是在保证第 \(i\) 段的 \(\max=a_{p_i}\) 时尽量最小化 \(a_{p_{i+1}}\)。于是有 \(p_{i+1}=\arg\min\limits\left\{a_j\mid p_i+1\le j\le \min(r_{p_i},n-k+i+1)\right\}\)。注意最后一个位置可能…...
手机上有哪些比较好用的待办事项提醒工具 - 指南
手机上有哪些比较好用的待办事项提醒工具 - 指南pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", monospace …...
Redis源码学习 -- 数据类型编码 -- List - -蓝蜗牛
1. 什么是List? List是Redis的数据类型之一,给用户提供一个双向链表的功能。核心优势是头尾操作O(1)。 2. List的编码模式 List的编码模式有两种:LISTPACK和QUICKLIST。(下文用全大写表示编码名称,首字母大写表示数据结构) Quicklist本身就是节点为Listpack的链表,所…...
乌班图无法登录桌面,只能终端登录用户。且有网拉不了包(DNS问题)
尝试startx解决dns问题 $ sudo vi /etc/resolv.conf 新增nameserver 127.0.1.1 #这里用的是阿里云的DNS服务器 nameserver 223.5.5.5 nameserver 223.6.6.6一定要更新一下 $ sudo apt-get update重新安装桌面$ sudo apt-get install xorg $ sudo apt-get install ubuntu-desk…...
事半功倍是蠢蛋53 tornado接口报错
新写的接口无法访问也不404,log也没有任何输出。 二分找出初始化的时候报错...
完整教程:云手机的技术架构可分为哪些
完整教程:云手机的技术架构可分为哪些pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", monospace !importan…...
AI提示词遇见精密算法:TimeGuessr如何用数学魔法打造文化游戏新体验
在人工智能与历史文化的美妙交融中,一套精密的评分算法正在重新定义游戏公平性与挑战性当我们谈论AI生成的文化游戏时,很多人首先想到的是华丽的视觉效果和智能的内容生成。然而,真正让TimeGuessr(https://timeguessr.online/)脱颖而出的,是其背后那套**精密而公平的评分算…...
Arkime:大规模开源网络分析与数据包捕获系统
Arkime是一个开源的大规模网络数据包捕获与分析系统,支持PB级流量处理,提供完整的PCAP存储、索引和搜索功能,帮助安全团队进行网络取证和威胁检测。Arkime:大规模开源网络分析与数据包捕获系统 项目描述 Arkime(前身为Moloch)是一个大规模、开源的网络数据包捕获和分析系…...
kylin SP2安装mysql 8.0.41
环境:OS:kylin SP2mysql:8.0.41 glibc2.17查看系统glibc版本[root@localhost soft]# ldd --version ldd (GNU libc) 2.28 Copyright (C) 2018 Free Software Foundation, Inc. This is free software; see the source for copying conditions. There is NO warranty; not even…...
SAP采购订单数据获取
最近要配合公司AI做一个采购订单信息获取。 1、根据条件获取采购订单基本信息。 2、得到最早交易记录和最晚交易记录。 3、得出平均含税单价。 4、得出总交易条数。 AI的模型输入因为是不确定的,可能单个问,多个问,各种问,目前定义了采购订单、供应商、物料、日期等维度,这…...
get和post如何理解
基础概念: get主要是获取资源,post主要提交资源 传输链路上区别: get 在URL上携带参数,公开透明,不安全,幂等性(同一个请求多次执行,结果和只执行一次是一样的,不会产生额外的副作用,不会改变服务器的状态) 传递参数数量比较少(一般是2048个字符,但是具体还要看浏…...
me and my girlfriend WP复盘
一台非常简单的靶机复盘 vulnhub官网注释 Description Back to the Top Description: This VM tells us that there are a couple of lovers namely Alice and Bob, where the couple was originally very romantic, but since Alice worked at a private company, "C…...
顺序表
#include<iostream> #include<cstdlib> #define Maxsize 100 using namespace std; typedef struct//存储元素 {int data[Maxsize];int length; }Sqlist; //建立顺序表 typedef int CYDGOOD; //初始化线性表 void InitList(Sqlist *& L) {L = new Sqlist;L …...
能源管理的数字神经:MyEMS如何重塑能效认知
在工业设备的低沉轰鸣中,在写字楼宇的明暗交替间,能源如血液般在现代社会中流动。如何读懂这些流动的韵律,如何与这些无形的能量对话,成为当代能效管理的核心命题。MyEMS作为一套开源的能源管理系统,正在为各类组织构建这样的数字感知能力,让能源管理从模糊的经验艺术走向…...
开源・数据・能效:MyEMS 如何成为能源管理革新的核心引擎
在现代建筑的钢构骨架内,在工厂设备的运转节拍中,能量以电流、热能、冷量的形式不停流动。这些无形的流动蕴含着效率的秘密与优化的钥匙,而读懂这种语言需要特殊的解码能力。MyEMS作为一套开源能源管理系统,正扮演着这样的解码者角色——它将混沌的能源数据转化为清晰的行动…...
mysql回表,为什么你的查询总是慢半拍?
各位数据库爱好者们,不知道你们是否遇到过这样的场景:明明建了索引,查询速度却还是不理想?今天我们就来深入探讨这个让无数开发者头疼的问题——MySQL回表机制。理解了这个概念,你将能够轻松诊断并优化那些看似诡异的慢查询。 回表到底是什么? 简单来说,回表就是MySQL在…...
HMCL 3.6.17 Minecraft我的世界启动器
描述 HMCL是一个跨平台的Minecraft启动器,支持模组管理,游戏定制,自动安装(Forge、Fabric、Quilt、LiteLoader和OptiFine),Modpack创建,UI定制等。HMCL具有惊人的跨平台功能。 它不仅可以在不同的操作系统上运行,例如Windows,Linux和macOS, 但也支持多种CPU架构,如x…...
用自带的Nginx为gitlab做白名单
修改 /etc/gitlab/gitlab.rb文件vim /etc/gitlab/gitlab.rb如下这种写法不建议用 nginx[custom_gitlab_server_config] = "location ~* (.*) {deny 192.168.1.10;allow 192.168.1.0/24;deny all;proxy_cache off;proxy_pass http://gitlab-workhorse;root html;index …...
XHR/Fetch请求介绍与安全测试
XHR/Fetch请求介绍与安全测试目录XHR/Fetch是什么?所引发的安全问题XHR/Fetch是什么? XHR/Fetch 都是浏览器与服务器进行数据通信(即 API 调用)的两种主要技术。 简单来说,它们都是用来实现 AJAX(Asynchronous JavaScript and XML)理念的技术,即在不重新加载整个页面的…...
能流新智:MyEMS与开源时代的能源感知
在机器轰鸣的工厂、灯火通明的写字楼、冷热交替的数据中心,能量的流动从未停止。而真正理解这些流动,并与之对话,需要一种新的语言和感知能力。MyEMS,作为一个开源能源管理系统,正是这种感知能力的构建者——它让不可见的能源变得可见,让无序的消耗变得可解,最终让能源管…...
普科科技罗氏线圈应用指南:精准掌控电流测量的艺术
普科罗氏线圈以无磁饱和、宽频带、灵活轻便优势,提供高效精准电流测量解决方案。在电力测量、新能源及工业驱动领域,安全、精准地测量电流,尤其是高频、大电流信号,是一项核心需求。传统电流互感器(CT)易饱和、体积大、安装不便的局限性日益凸显。普科科技(PUKY-Tec…...
go mod基础
新建项目 并且新建 mod 管理 mkdir go_study cd go_study && go mod init studygo mod tid 下载依赖以及移除未使用的依赖require github.com/gin-gonic/gin v1.9.0...
go 变量作用域
1...
Oracle笔记:测试update语句关联表扫描的次数
我们的文章会在微信公众号IT民工的龙马人生和博客网站( www.htz.pw )同步更新 ,欢迎关注收藏,也欢迎大家转载,但是请在文章开始地方标注文章出处,谢谢! 由于博客中有大量代码,通过页面浏览效果更佳。Oracle笔记:测试update语句关联表扫描的次数下面是测试一下update语句…...
电流互感器选型指南:以普科科技产品为例
普科科技电流互感器选型注重测量与保护需求,明确参数、合理选型以确保安全与精度。在电力测量、监控和保护系统中,电流互感器(CT)扮演着至关重要的角色。它不仅是系统安全运行的"感知器官",更是确保数据准确、保护可靠的关键部件。面对多样的应用场景和复杂的工…...
.NET驾驭Word之力:玩转文本与格式
在前面的文章中,我们已经了解了Word对象模型的核心组件,包括Application、Document和Range对象。掌握了这些基础知识后,我们现在可以进一步深入到文档内容的处理,特别是文本的插入和格式化操作。本文将详细介绍如何使用MudTools.OfficeInterop.Word库来操作Word文档中的文本…...
读书笔记:白话解读位图索引:什么时候该用,什么时候千万别用?
我们的文章会在微信公众号IT民工的龙马人生和博客网站( www.htz.pw )同步更新 ,欢迎关注收藏,也欢迎大家转载,但是请在文章开始地方标注文章出处,谢谢! 由于博客中有大量代码,通过页面浏览效果更佳。本文为个人学习《Expert Oracle Database Architecture Techniques and…...