当前位置: 首页 > news >正文

论文笔记 SliceGPT: Compress Large Language Models By Deleting Rows And Columns

欲买桂花同载酒,终不似,少年游。

数学知识

秩: 矩阵中最大线性无关的行/列向量数。行秩与列秩相等
线性无关:对于N个向量而言,如果任取一个向量 v \textbf{v} v,不能被剩下的N-1个向量通过线性组合的方式表示,则称这N个向量为线性无关

SliceGPT: Compress Large Language Models By Deleting Rows And Columns

主要剪枝的效果:

  1. 将权重矩阵的尺寸缩小,变成更小的矩阵。具体而言是乘以一个Deleting Matrix D \textbf{D} D。这个矩阵实际上是通过构造一个正交矩阵,再做PCA删除一些行/列得到。
  2. 减少embedding dimension。与权重矩阵的缩小对应。
    可以参考Figure 1中右图

在这里插入图片描述


0. Introduction

目前许多权重剪枝的方法都需要RFT(recovery fine-tuning),耗时并且可拓展性差。

  • SliceGPT无需RFT也能有良好的效果。

本文的三大Contributions

  1. 引入了计算不变性。对于transformer中的权重矩阵做正交变换。简而言之就是乘上一个正交矩阵和正交矩阵的转置,计算结果不变。
  2. 使用signal matrix计算正交阵,利用PCA,在其主成分方向做投影后,与权重矩阵相乘,移去部分columns和rows以达到权重剪枝的目的。
  3. 在多个模型,不同任务上做实验并证明效果良好。

1. Related Work

常见的稀疏化方法:

  1. magnitude-based:移除绝对值较小的权重,但性能损失较大。
  2. OBS(optimial brain surgeon):使用Hessian矩阵来更新weight,移除对loss函数影响最小的weight。但是计算Hessian的逆过于复杂,尤其是大模型。
  3. 针对OBS的问题:
    1. 近似Hessian,如WoodFisher
    2. 逐层使用OBS,比如OBC(optimal brain compression)。
  4. GPTQ:量化权重矩阵。
  5. sparseGPT:半结构化/非结构化剪枝
  6. 仅使用Hessian的对角项(对角近似)

2. Transformer模型架构回顾。

相关信息可以参阅CSDN或知乎关于Transformer原文的详解,也可以参考我的这篇文章(内容比较简略):Transformer架构笔记

一个典型的Transformer中Encoder的结构Figure 2所示,作者把这样一个结构称为Transformer Block(不同的Transformer实现可能有所不同):
在这里插入图片描述

简要回顾一下Transformer的主要组件,以及约定符号表示。
一个标准的Transformer Block包含Attention BlockFFN BlockLayerNorm层。Transformer在起始阶段有embedding层将sequence转为嵌入向量,末尾有一个输出层,文中称为Language Modelling Head,将embedding转为对下一个word的预测。

  • Embeddings层:将sequence: S S S,转为embedding: X ∈ R N × D \textbf{X} \in R^{N \times D} XRN×D。其中 N N N为序列长度, D D D为嵌入向量的长度,同时一般也是模型当中统一的hidden dimension。 W embd ∈ R h × D W_\text{embd} \in R^{h \times D} WembdRh×D为该层的权重矩阵。 h h hone-hot编码长度。

  • LN层(LayerNorm):标准的Transformer使用LN,而作者使用RMSNorm原因是其具有计算不变性(Computational Invariance)。RMSNorm相比于LN而言计算更简单,每个元素只除以RMS均方根,并且这里求均方根时,统计的是 X \textbf{X} X中的所有元素: 共 N × D N \times D N×D个,这也是为什么后面要乘以一个 D \sqrt{D} D 的原因。LN是对每个样本做归一化,即按行归一化)即可,LN与RMSNorm之间的关系如下:
    LayerNorm ( X ) = RMSNorm ( X M ) diag ( α ) D + 1 N β ⊤ (1) \text{LayerNorm}(\mathbf{X})=\text{RMSNorm}(\mathbf{X}\mathbf{M})\text{diag}(\mathbf{\alpha})\sqrt{D}+\mathbf{1}_N\beta^\top \tag1 LayerNorm(X)=RMSNorm(XM)diag(α)D +1Nβ(1)

其中:
M = I − 1 D 1 ⋅ 1 T s . t . I ∈ R D × D , 1 ∈ R D × 1 \textbf{M} = I - \frac{1}{D}1 \cdot 1^T \quad s.t. \quad I \in \mathbb{R}^{D \times D}, \ 1 \in \mathbb{R}^{D \times 1} M=ID111Ts.t.IRD×D, 1RD×1

输入乘上 M \textbf{M} M相当于逐行减去mean。 d i a g ( α ) diag(\alpha) diag(α)为缩放系数, β \beta β为偏置项。

  • Attention Blocks:使用多头注意力, W k , W q , W v , W o , \mathbf{W}_k,\mathbf{W}_q,\mathbf{W}_v\mathrm{,}\mathbf{W}_o, Wk,Wq,Wv,Wo,分别对应K, Q, V, Output的权重矩阵。(output是一个Linear,把各个head拼接后的embedding再映射回去)。Attention Block用以下公式表示:
    σ ( W i n + b i n ) W o u t + b o u t (2) \sigma(\mathbf{W}_{\mathrm{in}}+\boldsymbol{b}_{\mathrm{in}})\mathbf{W}_{\mathrm{out}}+\boldsymbol{b}_{\mathrm{out}} \tag2 σ(Win+bin)Wout+bout(2)
    作者把 W k , W q , W v \mathbf{W}_k,\mathbf{W}_q,\mathbf{W}_v Wk,Wq,Wv统称为 W i n W_{in} Win,因为这几个矩阵对attention block的输入做线性变换,把 W o \mathbf{W}_o Wo称为 W o u t \mathbf{W}_{out} Wout,因为是attention中的输出层(多头注意力中把concatenated embedding映射回原维度)。

  • FFN Blocks: σ ( XW in ) W out \sigma(\textbf{XW}_\text{in})\textbf{W}_\text{out} σ(XWin)Wout。即MLP,简而言之就是先后做两次线性变换,先升维,再还原维度。

  • LM Head XW head + b head \textbf{XW}_\text{head} + \textbf{b}_\text{head} XWhead+bhead。其中 X \textbf{X} X为最后一个FFN Block的输出。LM Head输出即为最终的预测word。

Transformer整体的前向传播流程如Algorithm1所示:
在这里插入图片描述

3.SliceGPT

Key IdeaComputational Invariance。即:对线性层(使用nn.Linear的层如Attention,FFN)施加正交变换,计算结果不变。

3.1 Transformer中的computational invariance的说明

  • 正交矩阵的保范性:假设 Q \textbf{Q} Q为正交矩阵,则 Q Q T = I \textbf{Q}\textbf{Q}^T = \textbf{I} QQT=I,对于向量 x \textbf{x} x ∣ ∣ Qx ∣ ∣ = x T Q T Qx = x T x = ∣ ∣ x ∣ ∣ ||\textbf{Q}\textbf{x}|| = \sqrt{\textbf{x}^T\textbf{Q}^T\textbf{Q}\textbf{x}} = \sqrt{\textbf{x}^T\textbf{x}} = || \textbf{x} || ∣∣Qx∣∣=xTQTQx =xTx =∣∣x∣∣。即向量乘以正交阵不改变其范数。这里列出的是L2范数。

作者指出RMSNorm具有计算不变性,如eq2所示,作者在Appendix A.1给出了证明:
R M S N o r m ( X ℓ Q ) Q ⊤ = R M S N o r m ( X ℓ ) . (2) \mathrm{RMSNorm}(\mathbf{X}_\ell\mathbf{Q})\mathbf{Q}^\top=\mathrm{RMSNorm}(\mathbf{X}_\ell) . \tag2 RMSNorm(XQ)Q=RMSNorm(X).(2)

3.1(续)定理一以及证明:

定理一:作者指出,给Transformer当中的权重矩阵施加正交变换,能够保证其计算不变性:
W ~ e m b d = W e m b d Q , (3) b ~ o u t ℓ = b o u t ℓ Q , (6) W ~ i n ℓ = Q ⊤ W i n ℓ , (4) W ~ h e a d = Q ⊤ W h e a d . (7) W ~ o u t ℓ = W o u t ℓ Q , (5) \begin{array}{crcr} \tilde{\mathbf{W}}_{embd}=\mathbf{W}_{embd}\mathbf{Q}, \qquad & \text{(3)} & \qquad \tilde{\boldsymbol{b}}_{out}^{\ell}=\boldsymbol{b}_{out}^{\ell} \mathbf{Q}, \qquad & \text{(6)} \\ \tilde{\mathbf{W}}_{in}^{\ell}=\mathbf{Q}^{\top}\mathbf{W}_{in}^{\ell}, \qquad & \text{(4)} & \qquad \tilde{\mathbf{W}}_{head}=\mathbf{Q}^{\top}\mathbf{W}_{head} .\qquad & \text{(7)} \\ \tilde{\mathbf{W}}_{out}^{\ell}=\mathbf{W}_{out}^{\ell}\mathbf{Q}, \qquad & \text{(5)} & \end{array} W~embd=WembdQ,W~in=QWin,W~out=WoutQ,(3)(4)(5)b~out=boutQ,W~head=QWhead.(6)(7)
加波浪线的为变换后(microsoft实现代码中称为rotate旋转

  • 注:原文中eq.6为 b ~ o u t ℓ = Q ⊤ b o u t ℓ \tilde{\boldsymbol{b}}_{out}^{\ell}=\mathbf{Q}^\top\boldsymbol{b}_{out}^{\ell} b~out=Qbout,好像有问题,正在向作者咨询。
  • 注: b ~ i n ℓ = b i n ℓ , b ~ h e a d = b h e a d . \tilde{\boldsymbol{b}}_{in}^{\ell}=\boldsymbol{b}_{in}^{\ell},\tilde{\boldsymbol{b}}_{head}=\boldsymbol{b}_{head}. b~in=bin,b~head=bhead.

在这里我们也可以简单证明一下。我们参考Algorithm 1中1-7行,对前向传播的各个步骤给出对应的公式:
1 ⁣ : X ← S W e m b d 2 ⁣ : X ← R M S N o r m 0 ( X ) 3 ⁣ : f o r ℓ = 1 … L d o 4 : Z ← σ ℓ ( X W i n ℓ + b i n ℓ ) W o u t ℓ + b o u t ℓ 5 : X ← R M S N o r m ℓ ( X + Z ) 6 : end for 7 : return XW h e a d + b h e a d \begin{aligned} &1\colon\mathbf{X} \leftarrow S\mathbf{W}_{\mathrm{embd}}\\ &2\colon\mathbf{X} \leftarrow \mathrm{RMSNorm}_0(\mathbf{X})\\ &3\colon\mathbf{for}\ell=1\ldots L\mathbf{~do}\\ &4{:}\quad\mathbf{Z} \leftarrow \sigma_\ell(\mathbf{XW}_{\mathrm{in}}^\ell+\boldsymbol{b}_{\mathrm{in}}^\ell)\mathbf{W}_{\mathrm{out}}^\ell+\boldsymbol{b}_{\mathrm{out}}^\ell\\ &5{:}\quad\mathbf{X} \leftarrow \mathrm{RMSNorm}_\ell(\mathbf{X}+\mathbf{Z})\\ &6{:}\textbf{ end for}\\ &7{:}\textbf{ return XW}_{\mathrm{head}}+\mathbf{b}_{\mathrm{head}} \end{aligned} 1:XSWembd2:XRMSNorm0(X)3:for=1L do4:Zσ(XWin+bin)Wout+bout5:XRMSNorm(X+Z)6: end for7: return XWhead+bhead
其中 S ∈ R N × h , W e m b d ∈ R h × D , W h e a d ∈ R D × h S \in R^{N \times h}, \mathbf{W}_{\mathrm{embd}} \in R^{h \times D},\mathbf{W}_{\mathrm{head}} \in R^{D \times h} SRN×hWembdRh×DWheadRD×h。为了简化,统一认为 W i n , W o u t ∈ R D × D \mathbf{W}_{\mathrm{in}}, \mathbf{W}_{\mathrm{out}} \in R^{D \times D} Win,WoutRD×D。其中 N N N为序列长度, h h h为one-hot编码的长度, D D D为hidden dimension(或者叫embedding dimension)。

施加正交矩阵 Q \mathbf{Q} Q后的各步骤公式如下,我们将 X , X ~ \mathbf{X}, \tilde{\mathbf{X}} X,X~分别表示为施加正交变换前,正交变换后block的输入/输出:

  • line1 : S W ~ e m b d = S W e m b d Q = X Q → X ~ \text{line1}: S\tilde{\mathbf{W}}_{\mathrm{embd}} = S\mathbf{W}_{\mathrm{embd}}\mathbf{Q} = \mathbf{XQ} \rightarrow \tilde{\mathbf{X}} line1:SW~embd=SWembdQ=XQX~

  • line2 : RMSNorm ( X ~ ) = RMSNorm ( X Q ) = RMSNorm ( X ) Q → X ~ \text{line2}: \text{RMSNorm}(\tilde{\mathbf{X}}) = \text{RMSNorm}(\mathbf{X}\mathbf{Q}) = \text{RMSNorm}(\mathbf{X})\mathbf{Q} \rightarrow \tilde{\mathbf{X}} line2:RMSNorm(X~)=RMSNorm(XQ)=RMSNorm(X)QX~

  • line4 : σ ℓ ( X ~ W ~ i n ℓ + b ~ i n ℓ ) W ~ o u t ℓ + b ~ o u t ℓ = σ ℓ ( X Q Q ⊤ W i n ℓ + b i n ℓ ) W o u t ℓ Q + b o u t ℓ Q = ( σ ℓ ( X W i n ℓ + b i n ℓ ) W o u t ℓ + b o u t ℓ ) Q = Z Q → Z ~ \text{line4}: \sigma_\ell(\mathbf{\tilde{X}\tilde{W}}_{\mathrm{in}}^\ell+\boldsymbol{\tilde{b}}_{\mathrm{in}}^\ell)\mathbf{\tilde{W}}_{\mathrm{out}}^\ell+\boldsymbol{\tilde{b}}_{\mathrm{out}}^\ell = \sigma_\ell(\mathbf{X Q Q^\top W}_{\mathrm{in}}^\ell+\boldsymbol{b}_{\mathrm{in}}^\ell)\mathbf{W}_{\mathrm{out}}^\ell \mathbf{Q}+\boldsymbol{b}_{\mathrm{out}}^\ell \mathbf{Q} = (\sigma_\ell(\mathbf{XW}_{\mathrm{in}}^\ell+\boldsymbol{b}_{\mathrm{in}}^\ell)\mathbf{W}_{\mathrm{out}}^\ell+\boldsymbol{b}_{\mathrm{out}}^\ell)\mathbf{Q} = \mathbf{ZQ} \rightarrow \tilde{\mathbf{Z}} line4:σ(X~W~in+b~in)W~out+b~out=σ(XQQWin+bin)WoutQ+boutQ=(σ(XWin+bin)Wout+bout)Q=ZQZ~

  • line5 : RMSNorm ( X ~ + Z ~ ) = RMSNorm ( X Q + Z Q ) = RMSNorm ( X + Z ) Q = X Q → X ~ \text{line5}: \text{RMSNorm}(\tilde{\mathbf{X}} + \tilde{\mathbf{Z}}) = \text{RMSNorm}(\mathbf{XQ} + \mathbf{ZQ}) = \text{RMSNorm}(\mathbf{X} + \mathbf{Z})\mathbf{Q} = \mathbf{XQ} \rightarrow \mathbf{\tilde{X}} line5:RMSNorm(X~+Z~)=RMSNorm(XQ+ZQ)=RMSNorm(X+Z)Q=XQX~

  • line7 : X ~ W ~ head + b ~ head = X Q Q ⊤ W head + b head = X W head + b head → X ~ = X \text{line7}: \mathbf{\tilde{X}}\mathbf{\tilde{W}}_\text{head} + \boldsymbol{\tilde{b}}_\text{head} = \mathbf{X Q Q^\top W_\text{head}} + \boldsymbol{b}_\text{head} = \mathbf{X W_\text{head}} + \boldsymbol{b}_\text{head} \rightarrow \mathbf{\tilde{X}} = \mathbf{X} line7:X~W~head+b~head=XQQWhead+bhead=XWhead+bheadX~=X

发现 line7 \text{line7} line7 结果相等。综上,可以证明变换前后输出不变。

3.2 Transformer中LN向RMSNorm的转换:

根据eq.1我们可以知道LN与RMSNorm之间存在转换关系。其中最重要的两个就是mean-substraction: M \mathbf{M} M,以及系数: diag ( α ) \text{diag}(\alpha) diag(α)。作者指出,可以将LayerNorm中的这两个步骤分别放在前一个Block与后一个Block当中,如Figure 3所示。可以对比一下Figure 2与Figure 3有哪些不同。
在这里插入图片描述

可以发现, W in \mathbf{W}_\text{in} Win都是左乘 diag ( α ) \text{diag}(\alpha) diag(α),而 W out \mathbf{W}_\text{out} Wout均为右乘 M \mathbf{M} M。除了考虑Figure 3中所包含的Attention Block以及FFN Block当中的 W in \mathbf{W}_\text{in} Win W out \mathbf{W}_\text{out} Wout以外,考虑 W embd , W head \mathbf{W}_\text{embd}, \mathbf{W}_\text{head} Wembd,Whead应该分别左乘 diag ( α ) \text{diag}(\alpha) diag(α)、右乘 M \mathbf{M} M。(这里其实很好理解,因为embedding层位于第一个LN层的前面,而LM Head层恰好在最后一个LN层的后面)

用矩阵运算求均值:乘以矩阵 M M M即可。对最后一个维度求均值(对一行求均值):
M = I − 1 D 1 ⋅ 1 T s . t . I ∈ R D × D , 1 ∈ R D × 1 M = I - \frac{1}{D}1 \cdot 1^T \quad s.t. \quad I \in \mathbb{R}^{D \times D}, \ 1 \in \mathbb{R}^{D \times 1} M=ID111Ts.t.IRD×D, 1RD×1
因此严格来说,将LayerNorm中的均值相减操作融合至前一个block后,似乎与原始的模型不太一致,因为矩阵乘法不遵循交换律。但代码实现中直接对权重矩阵做了mean-substraction操作。本人理解可能是作者为了简便,以及希望可以pre-compute W in \mathbf{W}_\text{in} Win 的一种权宜之计。(这里加粗处存疑,如有问题请大佬指正

3.3 Transformation Per Block

作者指出,对不同的Block,应该根据当前输入的signal matrix的不同,计算得到不同的正交阵 Q \mathbf{Q} Q。但是Algorithm 1中 line 5 \text{line 5} line 5会存在等式不相等的情况:
( X ~ + Z ~ ) = ( X Q ℓ − 1 + Z Q ℓ ) ≠ ( X + Z ) Q ℓ . 因为不同Block正交阵不相等 (\tilde{\mathbf{X}} + \tilde{\mathbf{Z}}) = (\mathbf{X}\mathbf{Q}_{\ell - 1} + \mathbf{Z}\mathbf{Q}_\ell) \neq (\mathbf{X} + \mathbf{Z})\mathbf{Q}_\ell. \quad \text{因为不同Block正交阵不相等} (X~+Z~)=(XQ1+ZQ)=(X+Z)Q.因为不同Block正交阵不相等
本质原因是存在Residual Connection。故每一个残差连接对应的 X \textbf{X} X应当右乘 Q ℓ − 1 Q ℓ \mathbf{Q}_{\ell - 1}\mathbf{Q}_\ell Q1Q,以保证 line 5 \text{line 5} line 5等式成立。

最终的经过变换后的Transformer Block示意图如Figure 4所示:
在这里插入图片描述

3.3(续)如何构造正交阵Q

作者提出根据每一层不同的signal matrix,分别构造不同的正交阵。公式如下:
C ℓ = ∑ i X ℓ , i ⊤ X ℓ , i (8) \mathbf{C}_{\ell}=\sum_{i}\mathbf{X}_{\ell,i}^{\top}\mathbf{X}_{\ell,i} \tag8 C=iX,iX,i(8)
其中 X ℓ , i \mathbf{X}_{\ell,i} X,i表示第 ℓ \ell RMSNorm \text{RMSNorm} RMSNorm层对于第 i i i个sequence的输出。 Q ℓ \mathbf{Q}_\ell Q即为 C ℓ \mathbf{C}_{\ell} C经过特征分解后,按特征值从大到小排列的所有特征向量所构成的矩阵。
注: C ℓ \mathbf{C}_{\ell} C对称矩阵有什么意义?首先实对称矩阵的特征值肯定为实数。

3.4 Slicing

类似PCA当中的操作,选取 Q \mathbf{Q} Q的特征值最大的 D small D_\text{small} Dsmall个特征向量,构造删除矩阵 D ∈ R D × D small \mathbf{D} \in R^{D \times D_\text{small}} DRD×Dsmall,将 X \mathbf{X} X映射为一个低纬度的特征 Z \mathbf{Z} Z,然后再经过正交阵的转置,又变换回 X ~ \tilde{\mathbf{X}} X~,相当于reconstruction的过程。如以下公式所示:

Z = X Q D , X ~ = Z D ⊤ Q ⊤ . (9) \mathbf{Z}=\mathbf{X}\mathbf{Q}\mathbf{D}\mathrm{~,~~~~}\tilde{\mathbf{X}}=\mathbf{Z}\mathbf{D}^{\top}\mathbf{Q}^{\top}. \tag9 Z=XQD ,    X~=ZDQ.(9)

具体的slice过程如下图所示(Figure 1的右图)
在这里插入图片描述


多头注意力机制实现方法:

  1. 第一种实现:将输入向量降维成多个低维向量,比如8个头,embedding维度为512,那么就有24个Linear(512, 64),其中8个作为 W q W_q Wq,8个作为 W k W_k Wk,8个作为 W v W_v Wv,这里Linear(512, 64)即是权重矩阵,也起到降维作用。然后8个降维后的向量各自做各自的attention,得到attention中每个head的输出(每个维度为64),再把这8个输出拼接起来,得到维度为512,然后再经过一个线性层Linear(512,512),得到multi-head attention最终的输出。
  2. 第二种实现:还是8个头的注意力机制,但是 W q , W k , W v W_q,W_k,W_v WqWkWv都只有一个,为Linear(512,512),然后将 W q , W k , W v W_q,W_k,W_v WqWkWv输出的embedding reshape(使用view函数),把shape变换为[N, seq, head_num, head_dim]分别对应为样本数,序列长度,head数量,每个head分得的维度数(比如8个头,则shape为[N, seq, 8, 64]),然后直接做点乘,最后再reshape将维度变换回去,再经过线性层Linear(512,512),得到多头注意力机制的最终输出。

问题

  1. 如何做Fusion?即如何将LN中的Linear operation融合至相邻线性层?
    Embedding层只做了mean substraction。其余层直接和LN层的参数做element-wise multiplication。相当于乘以了缩放系数,这里没问题。
  2. 如何求解正交矩阵 Q \mathbf{Q} Q?对signal matrix(指的是input / embedding)使用PCA,QR分解(后续需补充QR分解和特征分解的关系)。
  3. 文中提到哪些部分不能pre-computed?指的是 Q ℓ − 1 Q ℓ \mathbf{Q}_{\ell - 1}\mathbf{Q}_\ell Q1Q,可以从代码实现中看到,该算法是一边forward,一边剪枝,也就是需要等当前的Block前向传播完毕后,拿到当前Block的输出(下一个Block的输入),才能开始计算下一个Block的 Q \mathbf{Q} Q。比如当前是第 ℓ − 1 \ell - 1 1个Block,等这一个Block前向传播完毕后,才能开始算 Q ℓ \mathbf{Q}_{\ell} Q
  4. Norm层的可学习参数是指的哪些?指 γ , β \gamma,\beta γβ即缩放系数和偏移量: https://www.cnblogs.com/tian777/p/17911800.html
  5. Convolutional Layer是否也具有计算不变性?
  6. LN层为什么不具备计算不变性?
  7. 解释RMSNorm为什么具备计算不变性?

词语释义

cornerstone 基石
post-hoc = after this 事后的adj./事后adv.
complementary 补充的
undertaking 任务/项目
so long as 只要
whilst 与此同时


参考链接

  • SliceGPT原文链接
  • SliceGPT源码
  • LLM大模型压缩——ICLR 2024 SliceGPT(原理详解)
  • SliceGPT概述
  • Phi-2 Transformer模型代码
    (作者的实验代码中给出了Phi-2对应的ModelAdapter以及LayerAdapter的实现)
  • 机器之心: SliceGPT

相关文章:

论文笔记 SliceGPT: Compress Large Language Models By Deleting Rows And Columns

欲买桂花同载酒,终不似,少年游。 数学知识 秩: 矩阵中最大线性无关的行/列向量数。行秩与列秩相等。 线性无关:对于N个向量而言,如果任取一个向量 v \textbf{v} v,不能被剩下的N-1个向量通过线性组合的方式…...

构建 LLM (大型语言模型)应用程序——从入门到精通(第七部分:开源 RAG)

通过检索增强生成 (RAG) 应用程序的视角学习大型语言模型 (LLM)。 本系列博文 简介数据准备句子转换器矢量数据库搜索与检索大语言模型开源 RAG(本帖)评估服务LLM高级 RAG 1. 简介 我们之前的博客文章广泛探讨了大型语言模型 (LLM),涵盖了其…...

快速理解倒排索引在ElasticSearch中的作用

一.基础概念 定义: 倒排索引是一种数据结构,用来加速文本数据的搜索和检索,和传统的索引方式不同,倒排索引会被每个词汇项与包含该词汇项的文档关联起来,从而去实现快速的全文检索。 举例: 在传统的全文…...

彻底理解微服务配置中心的作用

常见的配置中心有SpringCloudConfig、Apollo、Nacos等,理解它的作用,无非两点,一是配置中心能做什么,不使用配置中心会出现什么问题。 作用:配置中心是用来集中管理服务的配置,它是用来提高系统配置的维护…...

基于YOLOv8深度学习的智慧农业棉花采摘状态检测与语音提醒系统(PyQt5界面+数据集+训练代码)

智慧农业在现代农业中的应用日益广泛,其核心目标是通过智能化手段实现农业生产的自动化、精准化和高效化,而精准采摘技术作为智慧农业的重要组成部分,正受到越来越多的关注。棉花作为一种经济作物,其采摘过程传统上依赖于人工劳作…...

自动控制原理——BliBli站_DR_CAN

自动控制 2 稳定性分析 极点在左半平面 输入为单位冲击,而拉普拉斯变换为1;因此,开环和闭环系统,研究其传递函数的稳定性就可以了 2.5_非零初始条件下的传递函数_含有初始条件的传递函数 如果一个系统的初始条件不为0&#xff0…...

使用phpStudy小皮面板模拟后端服务器,搭建H5网站运行生产环境

一.下载安装小皮 小皮面板官网下载网址:小皮面板(phpstudy) - 让天下没有难配的服务器环境! 安装说明(特别注意) 1. 安装路径不能包含“中文”或者“空格”,否则会报错(例如错误提示:Cant cha…...

vue2 pinia 安装与入门

安装 本体 npm install pinia vue2特定 npm install vue/composition-api 持久化存本地 npm install pinia-plugin-persistvue.config.js 不加的话会报错 configureWebpack: { // 在configureWebpack里加上以下modulemodule: {rules: [{test: /\.mjs$/,include: /node_mo…...

路由传参、搜索、多选框勾选、新增/编辑表单复用

前言: 记录添加运动员页面功能的具体实现 ①由赛事管理页面跳转时路由传参(携带该页面表格中莫某条数据对应的赛事id到另一个页面); ②搜索框实时搜索; ③多选框勾选搜索; ④新增表单和编辑表单复用&a…...

内网不出网上线cs

一:本地正向代理目标 如下,本地(10.211.55.2)挂好了基于 reGeorg 的 http 正向代理。代理为: Socks5 10.211.55.2 1080python2 reGeorgSocksProxy.py -l 0.0.0.0 -p 1080 -u http://10.211.55.3:8080/shiro/tunnel.jsp 二:虚拟机配置proxifer 我们是…...

防止按钮被频繁点击

在做开发的时候,不希望按钮被用户频繁点击,给后端服务器增加负担,这个时候,可以在按钮的触发函数加上如下代码: // 禁用按钮 const fetchButton document.querySelector(.btn-fetch); fetchButton.disabled true; // 延时61秒后重新启用按钮 setTimeout(() > { fetchBut…...

Zariski交换代数经典教材Commutative Algebra系列(pdf可复制版)

Zariski的名字估计学代数几何的人都耳熟能详,先是入门时期的交换代数教材,然后就是深入研究时期随处可见的Zariski拓扑。本帖我们分享的便是著名的Zariski交换代数教材。 Oscar Zariski & Pierre Samuel写的交换代数经典教材Commutative Algebra&am…...

【C++】数据类型(上)

C规定在创建一个变量或一个常量时,必须要指定出相应的数据类型,否则无法给变量分配内存 数据类型存在意义:给变量分配合适的内存空间。 1.1 整型 整型作用:整型变量表示的整数类型的数据。 C中能够表示整型类型的有以下几种…...

(C语言) 8大翻译阶段

(C语言) 8大翻译阶段 文章目录 (C语言) 8大翻译阶段⭐前言🗃️8大阶段🗂️1. 字符映射🗂️2. 行分割🗂️3. 标记化🗂️4. 预处理🗂️5. 字符集映射🗂️6. 字符串拼接🗂️7. 翻译&…...

QT QHBoxLayout控件 全面详解

本系列文章全面的介绍了QT中的57种控件的使用方法以及示例,包括 Button(PushButton、toolButton、radioButton、checkBox、commandLinkButton、buttonBox)、Layouts(verticalLayout、horizontalLayout、gridLayout、formLayout)、Spacers(verticalSpacer、horizontalSpacer)、…...

生成式 AI 应用创新引擎dify.ai部署并集成ollama大模型详细图文教程

引言 Dify 是一个开源 LLM 应用开发平台,拥有直观的界面结合了 AI 工作流、RAG 管道、代理功能、模型管理、可观察性功能等,可以快速从原型开发到生产。 Ollama 是一个本地推理框架,允许开发人员轻松地在本地部署和运行 LLM&#xff…...

MySQL闪回恢复:轻松应对数据误删,数据安全有保障

在数据库管理中,数据误删是一个常见且棘手的问题。传统的数据恢复方法可能涉及复杂的操作,如全量备份和增量备份的恢复。MySQL的闪回恢复功能提供了一种更为简便、高效的数据恢复手段。本文将详细介绍MySQL闪回恢复的原理、配置和使用方法,帮…...

面经-综合面/hr面

面经-综合面/hr面 概述1.大学期间遇到的困难,怎么解决的2. 大学期间印象最深/最难忘的是什么3. 大学里面担任了什么职务没?做了什么工作?4. 大学最大的遗憾是什么?5. 对自己的未来规划6. 对自己的评价7. 自己的优缺点8. 对公司的认…...

利用Java爬虫获取阿里巴巴中国站跨境属性的详细指南

在全球化贸易的浪潮中,跨境电商正成为连接全球买家和卖家的重要桥梁。阿里巴巴中国站作为全球领先的B2B电子商务平台,提供了海量的商品信息,其中跨境属性信息对于跨境电商尤为重要。本文将详细介绍如何使用Java编写爬虫,从阿里巴巴…...

Vue3.0 所采用的 Composition Api 与 Vue2.x 使用的 Options Api 有什么不同?

Vue 3.0 引入的 Composition API 和 Vue 2.x 中的 Options API 是两种不同的开发方式。它们在组织和管理组件代码的方式上有很大的差异。虽然两者都能实现相同的功能,但 Composition API 提供了更好的灵活性和可维护性,特别是对于复杂的组件和大型项目。 以下是对比这两种 A…...

电脑中的vcruntime140_1.dll文件有问题要怎么解决?一键修复vcruntime140_1.dll

遇到“vcruntime140_1.dll无法继续执行代码”的错误通常表明电脑中的vcruntime140_1.dll文件有问题。这个文件属于Visual C Redistributable,对很多程序的运行至关重要。本文将提供几个步骤,帮助你迅速修复这一错误,使电脑恢复正常工作状态。…...

【网络安全 | 漏洞挖掘】绕过SAML认证获得管理员面板访问权限

未经许可,不得转载。 文章目录 什么是SAML认证?SAML是如何工作的?SAML响应结构漏洞结果什么是SAML认证? SAML(安全断言标记语言)用于单点登录(SSO)。它是一种功能,允许用户在多个服务之间切换时无需多次登录。例如,如果你已经登录了facebook.com,就不需要再次输入凭…...

技能之发布自己的依赖到npm上

目录 开始 解决 步骤一: 步骤二: 步骤三: 运用 一直以为自己的项目在github上有了(之传了github)就可以进行npm install下载,有没有和我一样萌萌的同学。没事,萌萌乎乎的不犯罪。 偶然的机…...

python+django5.1+docker实现CICD自动化部署springboot 项目前后端分离vue-element

一、开发环境搭建和配置 # channels是一个用于在Django中实现WebSocket、HTTP/2和其他异步协议的库。 pip install channels#channels-redis是一个用于在Django Channels中使用Redis作为后台存储的库。它可以用于处理#WebSocket连接的持久化和消息传递。 pip install channels…...

GitHub仓库的README添加视频播放链接和压缩视频网站推荐

想在github的README里面添加视频,有限制,不能超过10MB,所以需要压缩,推荐一个超级厉害的压缩工具,我一个30的视频最后压缩到了3M不到,而且清晰度没有变化,视频压缩网站地址:在线减小…...

PHP学习_1

一.PHP基本语法 1.变量 <?php header("Content-type:text/html;charsetutf-8"); $name1"yanxiao"; $age"3";echo "$name1 今年 $age <br>"; echo "$name1 喜欢 xtf <br>"; echo "$name1 不喜欢英语&…...

深入解析 MySQL 启动方式:`systemctl` 与 `mysqld` 的对比与应用

目录 前言1. 使用 systemctl 启动 MySQL1.1 什么是 systemctl1.2 systemctl 启动 MySQL 的方法1.3 应用场景1.4 优缺点优点缺点 2. 使用 mysqld 命令直接启动 MySQL2.1 什么是 mysqld2.2 mysqld 启动 MySQL 的方法2.3 应用场景2.4 优缺点优点缺点 3. 对比分析结语 前言 MySQL …...

Wordcloud也能生成一个,带html的词云图文件吗??

-------------词云图集合------------- 用WordcloudPyQt5写个词云图生成器1.0 WordCloud去掉停用词&#xff08;fit_wordsgenerate&#xff09;的2种用法 通过词频来绘制词云图&#xff08;jiebaWordCloud&#xff09; Python教程95&#xff1a;去掉停用词词频统计jieba.tok…...

D2545电动工具调速专用控制电路芯片介绍【青牛科技】

概述&#xff1a; D2545 是一块频率、占空比可调的脉冲控制电路。可通过调节外接的电阻和电容大小来控制输出频率和占空比&#xff0c;达到控制电机转速的作用。 主要特点&#xff1a; ● 电源电压范围宽 ● 占空比可调 ● 静态功耗小 ● 抗干扰能力强 应用&#xff1a; ● …...

【大数据测试之:RabbitMQ消息列队测试-发送、接收、持久化、确认、重试、死信队列并处理消息的并发消费、负载均衡、监控等】详细教程---保姆级

RabbitMQ消息列队测试教程 一、环境准备1. 安装 RabbitMQ2. 安装 Python 依赖 二、基本消息队列中间件实现1. 消息发送模块2. 消息接收模块 三、扩展功能1. 消息持久化和队列持久化2. 消息优先级3. 死信队列&#xff08;DLQ&#xff09; 四、并发处理和负载均衡1. 使用 Python …...

Nuclei-快速漏洞扫描器

Nuclei-快速漏洞扫描器 声明 学习内容来自 B 站UP主泷羽sec&#xff0c;如涉及侵权马上删除文章。 笔记的只是方便各位师傅学习知识&#xff0c;以下网站只涉及学习内容&#xff0c;其他的都与本人无关&#xff0c;切莫逾越法律红线&#xff0c;否则后果自负。 ✍&#x1f3f…...

【MySQL】事务

【MySQL】事务 文章目录 【MySQL】事务前言一、事务的简介二、事务操作三、事务四大特性四、 并发事务问题五、事务隔离级别总结 前言 本篇文章将讲到事务的简介&#xff0c;事务操作&#xff0c;事务四大特性&#xff0c;并发事务问题&#xff0c;事务隔离级别。 一、事务的简…...

Vue 路由回退页面不刷新?深度剖析及实用解决方案汇总

在 Vue 开发过程中&#xff0c;常常会碰到这样一种情形&#xff1a;从页面 A 跳转到页面 B 后&#xff0c;点击浏览器回退按钮返回页面 A 时&#xff0c;页面数据却未刷新&#xff0c;依旧保持之前的状态。这一情况可能会给用户带来困扰&#xff0c;对用户体验产生不良影响。本…...

【JavaEE初阶 — 网络编程】TCP流套接字编程

TCP流套接字编程 1. TCP &#xff06; UDP 的区别 TCP 的核心特点是面向字节流&#xff0c;读写数据的基本单位是字节 byte 2 API介绍 2.1 ServerSocket 定义 ServerSocket 是创建 TCP 服务端 Socket 的API。 构造方法 方法签名 方法说明 ServerS…...

I.MX6U 裸机开发20. DDR3 内存知识

I.MX6U 裸机开发20. DDR3 内存知识 一、DDR3内存简介1. DDR发展历程SRAMSDRAMDDR1DDR2DDR3DDR4DDR5 2. 开发板资源3. DDR3的时间参数1. 传输速率2. tRCD3. CL 参数作用取值范围工作原理4. tRC参数原理单位与取值5. tRAS重要性及作用 二、I.MX6U MMDC 控制器1. MMDC简介&#xf…...

微信小程序常用全局配置项及窗口组成部分详解

微信小程序常用全局配置项及窗口组成部分详解 引言 微信小程序作为一种新兴的应用形态,凭借其轻量级、便捷性和丰富的功能,已成为开发者和用户的热门选择。在开发小程序的过程中,了解全局配置项和窗口组成部分是至关重要的。本文将详细介绍微信小程序的常用全局配置项及窗…...

DVWA 在 Windows 环境下的部署指南

目录预览 一、靶场介绍二、前置准备1. 环境准备2.靶场下载 三、安装步骤1.配置Phpstudy2.配置数据库3.配置DVWA4.登入DVWA靶场 四、参考链接 一、靶场介绍 DVWA 一共包含了十个攻击模块&#xff0c;分别是&#xff1a; Brute Force&#xff08;暴力&#xff08;破解&#xff…...

JVM:即时编译器,C2 Compiler,堆外内存排查

1&#xff0c;即时编译器 1.1&#xff0c;基本概念 常见的编译型语言如C&#xff0c;通常会把代码直接编译成CPU所能理解的机器码来运行。而Java为了实现“一次编译&#xff0c;处处运行”的特性&#xff0c;把编译的过程分成两部分&#xff0c;首先它会先由javac编译成通用的…...

AI开发-机器学习库-sklearn

1 需求 官网&#xff1a;scikit-learn: machine learning in Python — scikit-learn 1.5.2 documentation scikit - learn&#xff08;简称sklearn&#xff09;是一个用于机器学习的开源 Python 库。它建立在NumPy、SciPy和matplotlib之上&#xff0c;提供了丰富的工具用于数…...

Opencv+ROS实现摄像头读取处理画面信息

一、工具 ubuntu18.04 ROSopencv2 编译器&#xff1a;Visual Studio Code 二、原理 图像信息 ROS数据形式&#xff1a;sensor_msgs::Image OpenCV数据形式&#xff1a;cv:Mat 通过cv_bridge()函数进行ROS向opencv转换 cv_bridge是在ROS图像消息和OpenCV图像之间进行转…...

git使用记录与总结

目录 前言 一、git是什么&#xff1f; 二、使用记录 1.git安装 2.git clone 3.-lfs初始化 4.git add 5.git commit 6.git push 相关问题与解决 总结 前言 随着Github、hugging face等平台各种开源代码、模型的广泛使用&#xff0c;个人可以使用git方便的下载代码与…...

uniapp中uni-popup在小程序中滚动穿透问题

uniapp中uni-popup在小程序中滚动穿透问题 官网例子 使用场景&#xff0c;在小程序中一个页面内容很长&#xff0c;点击某一项需要弹框&#xff0c;这个弹框需要定位在一定位置&#xff0c;下面的页面不需要滚动 1.直接在模板中添加 <template><page-meta :page-styl…...

限制账号密码格式的正则表达式来啦

. 代表任意字符 \w 代表字母、数字、下划线 \d 代表数字 指定字符重复1次或者n次&#xff0c;最少1次 ? 指定字符重复0-1次 {n} 只能重复n次 {a,} 最少重复a次 {,a} 最多重复a次 {a,b} 最少重复a次&#xff0c;最多重复b次 \s 空格 | 代表或者 [a-zA-Z0-9]&#xf…...

linux下USB设备状态查询

linux下USB设备状态查询 linux下USB设备状态查询 在buildroot RK3568平台上调试USB视频采集时发现&#xff0c;USB设备经常性断开&#xff0c;为发现其断开的规律&#xff0c;编写脚本记录其断开的时间 linux下USB设备状态查询 #周期性查询 USB设备 cat > /usr/bin/usbenq…...

Java 线程池有限大小工作队列 - 不丢弃任务的实现

我们在创建 Java 线程池&#xff0c;无论是用 Executors, ThreadPoolExecutor, 还是 Spring 的 ThreadPoolTaskExecutor, 如果不指定工作队列的大小的话&#xff0c;默认为 Integer.MAX_VALUE(2147483647), 基本不会把它爆满&#xff0c;但是在许多的任务要执行时大量 Runnable…...

GitLab的使用

文章目录 一、什么是GitLab、有什么用、与Jenkins的区别什么是GitLab及其用途GitLab与Jenkins的区别GitLab的CI/CD功能介绍 二、GitLab的安装与配置Linux下GitLab的安装*Linux下GitLab的简单使用 /etc/gitlab/gitlab.rb 的配置GitLab服务器的域名邮箱配置功能优化关闭一些暂时不…...

ffmpeg.js视频播放(转换)

chrome 临时设置SharedArrayBuffer "C:\Program Files\Google\Chrome\Application\chrome.exe" --enable-featuresSharedArrayBuffer 引用的js及相关文件 ffmpeg.min.js ffmpeg.min.js.map ffmpeg-core.js ffmpeg-core.wasm ffmpeg-core.worker.js 以上几个现…...

免费实用在线AI工具集合 - 加菲工具

免费在线工具-加菲工具 https://orcc.online/ sql格式化 https://orcc.online/tools/sql 时间戳转换 https://orcc.online/tools/timestamp Base64 编码解码 https://orcc.online/tools/base64 URL 编码解码 https://orcc.online/tools/url Hash(MD5/SHA1/SHA256…) 计算 h…...

C# 常量

文章目录 前言一、整数常量&#xff08;一&#xff09;合法与非法实例对比&#xff08;二&#xff09;不同进制及类型示例 二、浮点常量三、字符常量四、字符串常量五、定义常量 前言 在 C# 编程的世界里&#xff0c;常量是一类特殊的数据元素&#xff0c;它们如同程序中的 “定…...

elasticsearch单节点模式部署

原文地址&#xff1a;elasticsearch单节点模式部署 – 无敌牛 欢迎参观我的个人博客&#xff1a;无敌牛 – 技术/著作/典籍/分享等 第一步&#xff1a;下载 官方下载地址&#xff1a;Download Elasticsearch | Elastic&#xff0c;可以 wget 直接下载。 命令&#xff1a;wg…...