2W8000字 LLM架构文章阅读指北
❝大模型架构专栏已经更新了30多篇文章。完整的专栏内容欢迎订阅: LLM 架构专栏
1、LLM大模型架构专栏|| 从NLP基础谈起
2、 LLM大模型架构专栏|| 自然语言处理(NLP)之建模
3、 LLM大模型架构之词嵌入(Part1)
3、 LLM大模型架构之词嵌入(Part2)
3、 LLM大模型架构之词嵌入(Part3)
4、 LLM架构从基础到精通之 Word2Vec 训练全解析
5、 LLM架构从基础到精通之循环神经网络(RNN)
6、 全网最全的LLM架构讲解||LSTM原理
7、 LLM架构从基础到精通之门控循环单元(GRUs)
8、 深入探究编码器 - 解码器架构:从RNN到Transformer的自然语言处理模型
9、 2w8000字深度解析从RNN到Transformer:构建NLP应用的架构演进之路
10、 3w字 使用pytorch实现Transformer
11. 全网最全的神经网络数学原理(代码和公式)直观解释 ,全网最全,没有之一
12. 20000字的注意力机制讲解,全网最全
13. 2w字解析量化技术,全网最全的大模型量化技术解析
14. Transformer :数学解释为什么缩放点积会导致更稳定的梯度
15. 2W8000字深度剖析25种RAG变体:全网最全~没有之一
16. 大模型进化史:从Transformer到DeepSeek-R1的AI变革之路
17. LLMs的知识蒸馏:技术和应用
18. 3W6000字了解大模型LLM:部署、优化与框架
19. 2W8000字揭秘RAG:从基础到高级的逆袭,彻底重塑大模型!
20. 3W4000字 大模型评估全解析:方法、指标与框架
21. 2W6000字 大模型核心技术综述:微调、推理与优化指南
22. 1W8000 字 探秘 RAG 应用搜索:从语义搜索到评估指标的深度解析
以下是重新整理的部分文章的阅读指北(微信文章 可直接跳转):
1、LLM大模型架构专栏|| 从NLP基础谈起
本文是自然语言处理(NLP)相关的技术科普文章,从定义、应用、术语和工作流程等方面,对NLP进行了全面的解析。
-
NLP定义:致力于让机器理解、处理和生成人类语言,涵盖自然语言理解(NLU)和自然语言生成(NLG)两个领域,与语音识别不同但常协同工作。 -
应用领域:包括情感分析、毒性分类、机器翻译、命名实体识别等,广泛应用于生活各个方面,如企业了解用户满意度、网络内容审核、语言交流、信息筛选等。 -
重要术语:文档是基本文本单位;语料库是大量文档集合,用于训练和评估模型;特征是文本中用于机器学习模型的可测量属性。 -
工作流程 -
数据预处理:包括分词、词干提取、词形还原、文本归一化和词性标注等技术,目的是提高模型性能并将文本转换为模型能理解的格式。 -
特征提取:常见方法有词袋模型、TF - IDF、N - grams、词嵌入和上下文词嵌入等,用于将文本转化为数字特征,帮助机器学习模型进行处理。
-
2、 LLM大模型架构专栏|| 自然语言处理(NLP)之建模 13. 2w字解析量化技术,全网最全的大模型量化技术解析
本文围绕自然语言处理(NLP)建模技术展开,详细介绍了NER、语言模型、传统机器学习与深度学习技术、学习策略等内容,展示了 NLP 建模技术的应用和发展趋势。
-
命名实体识别(NER):从文本中找出并分类命名实体,如人名、组织名等。利用spacy库可识别英文句子中的实体。在新闻资讯、知识图谱构建等领域应用广泛。 -
语言模型:预测单词序列中接下来可能出现的单词的统计模型。传统语言模型如一元、二元或三元模型,依据单词概率或前序单词预测;神经网络语言模型利用RNNs或Transformer架构,以BERT为代表,能捕捉复杂模式和依赖关系。 -
传统机器学习与深度学习在NLP中的技术碰撞 -
传统机器学习技术:逻辑回归用于情感分析等;朴素贝叶斯基于独立性假设分类;决策树通过分割数据集分类;LDA用于主题建模;HMM用于词性标注。 -
深度学习技术:自注意力机制等技术应用广泛,Transformer凭借自注意力机制,提升训练速度和推理效率,催生了诸多强大模型。
-
-
现代NLP中的重要学习策略:迁移学习利用预训练模型减少训练成本;微调针对特定任务调整预训练模型;零样本学习使模型执行未训练任务;少样本学习让模型从少量示例学习,减少对大量标注数据的依赖。
3、 LLM大模型架构之词嵌入(Part1)
3、 LLM大模型架构之词嵌入(Part2)
3、 LLM大模型架构之词嵌入(Part3)
以上三部分介绍了词嵌入的各种方法
4、 LLM架构从基础到精通之 Word2Vec 训练全解析
本文围绕自然语言处理技术Word2Vec展开,详细介绍了其训练过程、架构、应用及优化方法,帮助读者深入理解这一技术。
-
Word2Vec基本概念:是自然语言处理中关键技术,能将单词转化为向量,便于计算机理解文本。 -
训练过程与架构:本质是单隐藏层神经网络,训练时调整权重降低损失函数值,训练后取隐藏层权重作为词向量。输入单词需转换为one - hot向量,隐藏层是全连接层,其权重即词向量,输出层用softmax激活函数输出目标单词概率分布。 -
语义和句法关系处理:相似上下文的单词会生成相似词向量,通过向量算术可重现语义和句法模式,如“Man - Woman = Brother - Sister”。 -
训练算法 -
分层softmax:用哈夫曼树近似条件对数似然,减少计算量,对不常见单词效果好,但训练轮数增加时作用减弱。 -
负采样:仅对目标单词和N个负实例采样,忽略one - hot标签中的大部分‘0’,负样本按一元分布选择,频率越高越可能被选。
-
-
实用方法 -
模型架构选择:Skip - gram在大型语料库和高维向量模型中准确性高,CBOW计算成本低且准确性相近。 -
子采样:对高频单词进行子采样,可提高训练速度和性能,常见单词对或短语可视为单个“单词”。 -
维度设置:词向量质量随维度增加提升,但超过一定阈值边际收益减少,一般维度设为100 - 1000。 -
上下文窗口调整:Skip - gram推荐窗口大小为10,CBOW为5。
-
5、 LLM架构从基础到精通之循环神经网络(RNN)
这篇文章围绕循环神经网络(RNN)展开,从神经网络基础讲起,深入探讨RNN及其相关内容,主要涵盖以下要点:
-
神经网络基础:神经网络受大脑运作模式启发,由众多节点构成,在机器学习尤其是深度学习中作用关键。其学习过程包括前向传播、损失函数计算和反向传播,涉及Epochs、Batch Size和Iterations等重要概念。神经网络类型多样,如浅层、深层神经网络等。 -
循环神经网络(RNNs) -
定义与应用场景:RNN专门用于处理顺序数据,能通过内部状态保留之前输入的信息,在处理时间序列数据、语言建模等任务时优势明显。 -
顺序数据概念:顺序数据的顺序影响其含义,如文本句子、时间序列数据和语音信号等。 -
与前馈神经网络对比:前馈神经网络数据单向流动,处理顺序数据有局限;RNN通过反馈回路传递信号,能更好处理顺序数据。 -
架构:由输入层、隐藏层和输出层组成,可看作多个前馈神经网络在时间上的链式执行。关键操作包括前向传播、反向传播时间(BPTT)和权重更新。 -
训练挑战:存在梯度消失和梯度爆炸问题,主要由激活函数特性和初始权重设置不当引起,可通过观察梯度大小判断是否出现问题。 -
解决方法:可采用适当的权重初始化,如Xavier初始化;使用非饱和激活函数,如ReLU及其变体(LReLU、PReLU、ELU、SELU )等。
-
-
从头构建RNN:通过定义RNN类、早停机制类、RNN训练器类、数据加载和预处理类,完整展示了使用Air passenger数据集训练RNN进行时间序列预测的过程。
6、 全网最全的LLM架构讲解||LSTM原理
本文围绕长短期记忆网络(LSTM)展开,从原理、架构、工作流程、架构类型到Python实现与训练,进行了全面深入的介绍。
-
LSTM简介:属于RNN家族,能学习长期依赖关系,通过创建短期和长期记忆路径,解决传统RNNs平衡长短时上下文困难的问题,信息经细胞状态流动,依靠加法和乘法运算管理数据。 -
LSTM架构:与RNNs链状结构相似,但重复模块有四个紧密相连的功能,包括Sigmoid、Tanh激活函数、逐点乘法和逐点加法。门控机制是关键,由忘记门、输入门和输出门组成,决定信息的保留、更新和输出。 -
LSTM工作流程:先由忘记门确定前一细胞状态保留或丢弃的信息,再通过输入门决定当前细胞状态存储的信息,最后输出门基于细胞状态决定输出信息,整个过程在每个模块重复。 -
LSTM架构类型:介绍了五种常用架构。Vanilla LSTM是基本架构;Stacked LSTM由多个LSTM层堆叠;CNN LSTM结合CNN和LSTM;Encoder - Decoder LSTM用于序列到序列问题;Bidirectional LSTM适用于序列分类问题。 -
Python从零构建LSTM:详细给出在Python中构建LSTM的步骤,包括导入库和自定义类,如WeightInitializer、PlotManager和EarlyStopping,以及LSTM类的初始化、前向传播、反向传播、参数更新方法,还有训练器类LSTMTrainer的使用示例,并强调训练中参数设置和监控的重要性。
7、 LLM架构从基础到精通之门控循环单元(GRUs)
本文围绕门控循环单元(GRUs)展开,涵盖从基础概念到实践应用等多方面内容,是关于GRUs的深度技术科普文章。
-
GRUs基础:由Cho等人在2014年提出,目的是解决标准RNN的梯度消失问题。它和LSTM类似,利用门控机制管理记忆,不同在于将输入门和遗忘门合并为更新门,还增加了重置门,简化了结构。 -
与其他网络比较:普通RNN传递信息时存在梯度消失问题,难以学习长期依赖关系;LSTM用输入门、遗忘门和输出门解决了该问题,能处理复杂上下文;GRUs是LSTM的简化版,计算强度低、训练速度快,同时也能处理长期依赖关系。 -
门的功能:更新门决定过往信息传递量,重置门决定忽略过往信息的程度。在实际应用场景,如分析客户评价时,它们会根据情况调整,让模型关注关键信息。 -
代码实现:通过Python代码实现了一个简单的GRU类,包含前向传播、反向传播以及参数更新的方法,展示了GRU架构的核心机制。 -
优缺点与选择:优点是在序列数据建模、处理可变长度输入上表现出色,计算效率高且能缓解梯度消失;局限在于处理极长复杂序列时不如LSTM,表达能力相对较弱。资源有限、追求简单模型或处理短序列时适合用GRUs;需要捕获长期依赖关系、精细内存控制或处理复杂序列时,LSTMs更合适,实际应用中最好通过实验确定。 -
总结:全面回顾了RNNs相关知识,强调GRUs是处理序列数据的有力工具,理解其架构和原理对应用至关重要,选择GRUs还是LSTMs要综合多方面因素考量。
8、 深入探究编码器 - 解码器架构:从RNN到Transformer的自然语言处理模型
文章围绕编码器 - 解码器架构展开,深入探讨其在自然语言处理领域的应用,详细介绍架构原理、训练方式、优缺点及改进方法,并列举了实际应用案例。
-
编码器 - 解码器架构概述:用于解决Seq2Seq问题,处理顺序数据。编码器将输入序列编码为上下文向量,解码器利用该向量生成输出序列。以神经机器翻译为例,输入英语句子,输出法语翻译。 -
架构内部机制:Seq2Seq模型基于RNN,常使用LSTM单元。编码器处理输入序列,其最终内部状态作为上下文向量传递给解码器;解码器根据上下文向量和前一时刻输出,逐个生成目标序列单词。 -
模型训练:训练前需对数据向量化,如独热编码。训练时,编码器工作方式不变,解码器采用教师强制技术,用真实输出作为下一时刻输入;测试时,解码器用上一时刻预测输出作为输入。 -
架构缺点:存在与长度相关的缺点,如记忆能力有限,处理长序列时会增加模糊性;训练长序列时易出现梯度消失问题。 -
架构改进:添加嵌入层,学习单词有意义表示;使用深度LSTM,结合相关技术缓解梯度消失问题;反转输入序列,在部分机器翻译任务中可提升性能。 -
示例及应用场景:可结合CNN、RNN、LSTM等网络解决不同问题,如用于图像描述、机器翻译。在Transformer模型、Make - a - Video、机器翻译、图像描述等领域均有应用。
9、 2w8000字深度解析从RNN到Transformer:构建NLP应用的架构演进之路
这篇文章围绕大型语言模型(LLM)和Transformer展开,深度解析了从传统模型到Transformer的架构演进,以及LLM的构建、训练、推理和优化等内容。
-
LLM概述:LLM运用深度学习和海量数据实现语言理解与生成,基于Transformer架构,具有注意力机制和自回归文本生成能力。构建和训练需收集处理大量数据,设计特定架构,利用计算能力和算法训练并不断扩展。大型语言模型操作(LLMOps)专注于其生产环境部署、监控和维护。 -
前Transformer时代模型: 早期模型如多层感知机(MLPs)不适合序列建模;循环神经网络(RNNs)虽能处理序列数据,但存在长期依赖问题和训练速度慢的缺陷;长短期记忆网络(LSTM)一定程度改善了信息传递问题,但长句处理仍有局限;卷积神经网络(CNNs)具有并行性和局部依赖捕捉能力,但处理长距离依赖关系不佳。注意力机制一定程度解决了部分问题,但仍存在顺序训练等缺陷。 -
Transformer架构:为解决序列转换问题而生,核心是自注意力机制,能捕捉长距离依赖关系。由编码器、解码器组成,包含嵌入、多头自注意力、前馈神经网络等组件,各组件协同工作,将输入序列转换为输出序列。 -
LLM架构类型:Seq-2-Seq模型(编码器 - 解码器)适用于机器翻译、文本摘要;自动编码模型(仅编码器)专注于语言理解;自回归模型(仅解码器)擅长文本生成;专家混合(MoE)通过子模型和门控网络提升效率和多样性。 -
推理及优化:推理是用训练好的模型进行预测,解码器在训练和推理时工作方式不同。推理技术有贪婪搜索和束搜索。同时,Transformer推理面临内存和计算需求大、延迟高、批量大小与性能平衡难等挑战,可通过量化、键值(KV)缓存、推测解码、批处理、硬件优化、FlashAttention等技术优化。 -
其他要点:对推理性能进行基准测试可评估优化效果。未来趋势包括内存优化、注意力机制优化、并行性提升和推测推理应用。处理大型数据集需高效的数据加载和预处理、分布式训练等策略。
10、 3w字 使用pytorch实现Transformer
文章围绕Transformer架构展开,详细介绍其理论、构建过程、训练方法及相关知识,旨在帮助读者深入理解并掌握Transformer模型。
-
Transformer架构概述:2017年谷歌提出的Transformer架构引发了机器学习领域的变革,其凭借并行处理能力在自然语言处理任务中表现出色,并为后续模型奠定基础。 -
Transformer架构解析:训练时,输入序列经嵌入、编码等处理,解码器结合编码器输出生成目标序列,通过损失函数和反向传播训练模型。其主要由编码器和解码器组成,包含多头注意力机制、前馈网络等模块,各模块协同工作。 -
从头构建Transformer模型:利用PyTorch构建模型,涵盖输入嵌入、位置编码等多个组件。同时,介绍分词器、数据集加载、验证循环和训练循环等内容,完成模型的搭建与训练准备。 -
损失函数:常用损失函数包括交叉熵损失,可通过标签平滑优化。此外,还有标记级损失和序列级损失,适用于不同任务。 -
知识问答:针对Transformer架构的关键知识点设置问答,涵盖自注意力机制、位置编码等多方面,加深读者对架构的理解。
11. 全网最全的神经网络数学原理(代码和公式)直观解释 ,全网最全,没有之一
文章主要对神经网络背后的数学原理进行了直观解释,通过理论讲解、公式推导和Python代码示例,深入剖析了神经网络在分类和回归问题中的应用及原理。
-
神经网络基础概念:神经网络能学习复杂数据模式,本文采用可视化方式解读。单层神经网络包含输入层和输出层,输入层仅传递数据。感知器是首个神经网络,用于二元分类,其输出层计算输入特征加权和,通过阶跃函数激活。 -
分类问题中的神经网络 -
单层网络:感知器决策边界是直线,垂直于权重向量。Sigmoid神经元将激活函数换为Sigmoid函数,可输出预测概率,其决策边界同样是直线。增加特征后,决策边界在3D空间为平面,更高维则是超平面,感知器和Sigmoid神经元都属于线性分类器。 -
多类分类:多类分类需softmax层,它是Sigmoid函数的泛化。以有2个特征、3个标签的数据集为例,softmax创建多个决策边界,每个都是直线,垂直于特定向量,推广到高维,决策边界是超平面。 -
多层网络:非线性可分数据集用单层网络效果差,多层网络隐藏层可将原始数据集转化为线性可分数据。如含ReLU激活函数的隐藏层,可将二维非线性可分数据转化为三维线性可分数据,输出层再进行分类。非线性激活函数对隐藏层至关重要,用线性激活函数无法使隐藏层有效转换数据集。
-
-
回归问题中的神经网络 -
单层网络:单层神经网络若输出层为线性激活函数,使用均方误差成本函数时,行为类似线性回归模型。 -
多层网络:要学习非线性数据集,需在隐藏层添加非线性激活函数,如ReLU。通用近似定理表明,含足够神经元隐藏层和合适激活函数的前馈神经网络可逼近任何连续函数,增加隐藏层神经元数量能提高逼近能力。
-
12. 20000字的注意力机制讲解,全网最全
这篇文章围绕注意力机制展开,详细介绍其在深度学习模型中的应用,涵盖自然语言处理和计算机视觉领域,具体内容如下:
-
引言:注意力机制在处理长距离依赖任务中发挥关键作用,如NLP、机器翻译和图像识别。它解决了传统Seq2Seq模型处理长序列时上下文向量无法有效容纳信息的问题。 -
注意力机制详解 -
核心思想:在解码器每个时间步创建新的上下文向量,使解码器能访问所有编码器隐藏状态,专注输入序列相关部分,提升处理长序列能力。 -
工作原理:以seq2seq + 注意力模型为例,包括准备隐藏状态、获取分数、Softmax处理、加权求和及输入解码器5个步骤,训练和推理过程有所不同,依赖反向传播优化。
-
-
模型中的注意力机制运作:模型先处理输入生成隐藏状态,再计算注意力分数,经Softmax归一化后加权求和得到上下文向量,解码器利用其生成输出序列。 -
注意力机制类型:介绍Bahdanau、Luong、自注意力、多头注意力、交叉注意力等多种机制,以及谷歌神经机器翻译(GNMT),并对比全局与局部、硬注意力与软注意力的差异。 -
LSTM上的注意力机制:相关论文将注意力机制与LSTM结合用于机器阅读任务,提升模型性能,与自注意力机制存在区别。 -
评分函数:介绍加法/拼接、点积等评分函数,点积运算衡量向量相似性,前馈神经网络用于学习对齐权重。 -
计算机视觉中的注意力机制:包括空间、通道、自注意力等类型,应用于目标检测、图像描述等任务,能提升模型性能。
13. 2w字解析量化技术,全网最全的大模型量化技术解析
这篇文章围绕机器学习中的量化技术在大语言模型中的应用展开,介绍了量化的概念、优势、技术方法等内容。
-
量化的优势与大语言模型的规模挑战 -
优势:量化能降低内存占用、加快推理速度、减少能源消耗并提升部署灵活性。 -
挑战:现代大语言模型参数规模庞大,对内存要求高。不同位宽浮点格式各有优劣,减少位大小会引入近似误差,需平衡误差与内存、计算速度的关系。
-
-
量化基础 -
数据格式:介绍IEEE-754浮点标准下的FP32、FP16、Bfloat16及INT8、INT4整数格式的构成与范围。 -
量化过程与类型:量化过程包括确定数值动态范围、选择缩放因子、映射为整数及存储缩放因子;量化类型有对称量化和非对称量化,各有特点与计算方式。 -
特定任务建议:自然语言处理训练用BF16、推理用INT8;图像处理训练用FP16,推理用INT8或INT4;Transformer模型注意力层可混合使用INT8和INT4。 -
裁剪与校准:裁剪可处理异常值,减少其对量化的影响;校准是选择最优范围,不同类型参数(权重和激活值)校准技术不同。
-
-
量化技术 -
训练后量化(PTQ):权重量化可选择对称或非对称量化;激活值量化有动态量化和静态量化两种方式,各有利弊,并给出PyTorch实现代码示例。4位量化有GPTQ、GGML和GGUF、AWQ等方法,分别介绍其原理与优势。 -
量化感知训练(QAT):在训练过程中引入伪量化,使模型适应量化变化,能找到损失曲面中的宽最小值,提高低精度下模型性能。 -
BitNet:将量化集成到Transformer架构,使用1比特值表示权重,后发展为1.58比特量化,通过特定量化策略提高计算效率。
-
14. Transformer :数学解释为什么缩放点积会导致更稳定的梯度
15. 2W8000字深度剖析25种RAG变体:全网最全~没有之一
本文围绕25种RAG变体展开,深入探讨其架构、组件、流程及代码实现,为LLM动态增强提供全面指引。
-
RAG变体分类及介绍:主流RAG框架分为成本控制型、实时互动型、域专家类型、认知增强型、安全与合规类型。文中详细介绍了25种RAG变体,如标准RAG由检索和生成模块构成,能动态注入外部知识;CRAG增加迭代反馈循环,减少幻觉;Speculative RAG采用双模型策略,提升速度和准确性。 -
具体实现代码示例:针对每种变体给出关键代码示例,像标准RAG的查询编码器、文档分割、索引检索、提示构造及生成的代码;CRAG置信度评分和反馈回路代码等,助读者理解其技术细节。 -
各变体关键优势:每个变体都有独特优势,如Self - RAG可减少对外部资源依赖,提升模型自主性;自适应RAG能优化资源利用,提升性能;REFEED无需重新训练模型就能提高回答准确性。 -
应用场景及价值:这些变体适用于智能问答、文档生成、多模态任务、翻译等领域,能提升模型性能和回答质量,为用户提供更优质服务体验。
16. 大模型进化史:从Transformer到DeepSeek-R1的AI变革之路
这篇文章回顾了2017 - 2025年大语言模型的发展历程,介绍关键模型、技术及影响,强调发展推动人工智能走向更具包容性和影响力的未来。
-
语言模型基础:语言模型旨在处理、理解和生成类人语言,多数大语言模型自回归运行,依前文预测后文,按此生成文本,应用广泛。 -
关键发展阶段 -
Transformer革命(2017年):Transformer架构解决早期模型处理长距离依赖和顺序处理难题,其自注意力、多头注意力等创新,为大规模高效语言模型奠基。 -
预训练Transformer模型时代(2018 - 2020年):BERT双向训练提升语言理解能力;GPT系列专注生成,通过自回归预训练和微调,在多任务表现出色,GPT-3展示规模效应。 -
训练后对齐(2021 - 2022年):为解决大语言模型“幻觉”等问题,开发SFT和RLHF技术。ChatGPT基于GPT-3.5,经对话数据微调与RLHF,推动对话式人工智能发展。 -
多模态模型(2023 - 2024年):GPT-4V结合视觉与语言能力,GPT-4o整合多模态,在多行业引发变革。同时,开源和开放权重模型兴起,促进社区创新。 -
推理模型(2024 - 2025年):2024年人工智能注重推理能力提升,OpenAI-o1通过思维链增强推理,在多领域表现优异。2025年DeepSeek-R1及其相关模型,以低训练成本实现高性能推理,在多基准测试表现出色,降低使用成本,挑战行业格局。
-
-
总结与展望:大语言模型发展历程中,Transformer架构、GPT-3、ChatGPT、DeepSeek-R1具有里程碑意义,推动人工智能朝着更具包容性和影响力的未来发展 。
17. LLMs的知识蒸馏:技术和应用
这篇文章围绕LLMs的知识蒸馏技术展开,全面介绍了其技术原理和应用,旨在帮助读者深入理解并掌握这一重要技术,具体内容如下:
-
知识蒸馏的背景与定义:大规模机器学习和深度学习模型虽性能强大,但部署困难,知识蒸馏能将复杂模型知识提炼到较小模型,克服这些挑战。它是将知识从大型复杂模型转移到单个较小模型的过程,本质是模型压缩,随着深度学习发展受到广泛关注。 -
知识蒸馏的关键要素 -
知识类型:包括基于响应、基于特征和基于关系的知识,分别侧重于教师模型的输出层、中间层和特征图之间的关系。 -
训练方式:有离线蒸馏(使用预训练教师模型指导学生模型)、在线蒸馏(教师和学生模型同时更新)和自蒸馏(教师和学生模型相同,用深层知识训练浅层)。 -
师生架构:学生模型可以是教师模型的较浅版本、量化版本等,还可通过神经架构搜索设计最佳学生模型架构。 -
蒸馏算法:介绍了对抗性蒸馏、多教师蒸馏、跨模态蒸馏等多种算法,以及基于图、注意力、无数据、量化、终身和基于神经架构搜索的蒸馏算法。
-
-
知识蒸馏的应用:在视觉、自然语言处理和语音领域应用广泛。视觉领域用于图像分类、人脸识别等众多任务;自然语言处理领域可获得轻量级模型,应用于神经机器翻译、文本生成等场景,DistilBERT是典型案例;语音领域用于语音识别、口语识别等,如Amazon Alexa的声学建模。 -
总结:知识蒸馏是训练高效轻量级模型的有效机制,基于多种知识、训练方案、架构和算法,在多个领域取得巨大成功。
18. 3W6000字了解大模型LLM:部署、优化与框架
文章围绕大语言模型(LLM)的部署、优化与框架展开,全面介绍了LLM服务相关知识,具体内容如下:
-
LLM服务基础 -
服务内容:包括高效处理、模型部署、API创建和基础设施管理,旨在使LLM能实时响应查询。 -
本地运行优势及条件:本地运行LLM具有隐私性和成本优势,需具备开源LLM和在本地设备运行的推理能力。
-
-
加载LLM的方法与框架 -
多种框架对比:介绍HuggingFace、LangChain、Llama.cpp等多种加载LLM的框架,分析各自优缺点及使用方法。 -
分片与量化技术:分片将模型拆分成小块以减少VRAM需求;量化通过转换数据表示形式减小模型大小和内存需求,介绍了Bitsandbytes、GPTQ、AWQ和GGUF等量化方法。
-
-
推理优化策略 -
理解推理过程:LLM推理分预填充阶段和解码阶段,请求批处理和连续批处理可优化推理,但存在内存限制问题。 -
优化技术:介绍PagedAttention、KV缓存等优化技术,以及模型并行化(流水线并行、张量并行、序列并行)和注意力机制优化(多头注意力、多查询注意力等)方法。
-
-
模型优化技术:包括量化、稀疏性和蒸馏。量化降低模型权重和激活值精度;稀疏性将接近0的值替换为0并用压缩形式表示矩阵;蒸馏把大模型知识转移到小模型中。 -
模型服务技术 -
正在进行的批处理:大语言模型任务多样,导致批处理困难,连续批处理可提高GPU利用率。 -
推测性推理:针对自回归模型按token生成文本的特点,通过“成本较低”的过程生成草稿续写内容,再由验证模型并行验证,提高生成效率。
-
-
服务指标与组件 -
评估指标:使用首token生成时间、每个输出token的生成时间、延迟和吞吐量四个关键指标评估大语言模型服务。 -
组件功能:引擎负责运行模型和请求批处理,服务器负责转发用户请求,二者功能不同但相互配合。
-
-
服务框架介绍:介绍vLLM、文本生成推理(TGI)、CTranslate2、DeepSpeed - MII、OpenLLM、Ray Serve、MLC LLM等框架,对比其用法、特色功能、优势和局限性,为不同需求提供选择参考。 -
结论与建议:内存管理对LLM性能至关重要,不同框架在不同方面各有优劣。根据追求速度、HuggingFace支持、CPU推理、使用适配器等不同需求,可选择相应的框架。
19. 2W8000字揭秘RAG:从基础到高级的逆袭,彻底重塑大模型!
文章围绕检索增强生成(RAG)技术展开,全面且深入地介绍了从基础概念到高级技术、应用场景以及性能评估等多方面的内容,具体如下:
-
RAG增强技术分类:涵盖基础RAG、高级RAG和模块化RAG三种范式,其基本流程包括索引构建、检索和生成三个关键步骤。 -
基础RAG的问题:在索引构建、检索、生成三个环节均存在问题,如信息提取不完整、召回率低、大语言模型生成错误等,有很大的优化提升空间。 -
高级RAG -
关键特征:采用先进检索算法、增强检索数据整合、具备迭代优化能力和反馈循环学习机制。 -
优化阶段:检索前优化聚焦数据索引和查询处理;检索优化围绕嵌入模型展开,还包括混合搜索等技术;检索后优化通过提示压缩、重新排序和过滤等操作,提升文本生成质量。
-
-
高级RAG技术 -
检索前技术:介绍PDF解析、上下文丰富、查询改写、语义分块、数据修改、查询路由等多种技术,每种技术都针对基础RAG的问题提出解决方案,如不同的PDF解析方法、多种查询改写算法等。 -
检索技术:融合检索/混合搜索结合传统与现代搜索优势,借助逆序排名融合算法提升检索效果。 -
检索后技术:提示压缩、重新排序、过滤、Self - RAG、校正检索增强生成(CRAG)、RAG融合等技术,从不同角度优化检索结果,提高生成内容的质量和相关性。
-
-
生成技术:包括增强和定制两方面。前者利用如“演示 - 搜索 - 预测”等框架优化生成过程;后者通过参数知识引导等方法定制大语言模型输出。 -
聊天引擎:构建RAG系统需考虑聊天逻辑,通过查询压缩技术处理对话上下文,如ContextChatEngine和CondensePlusContextMode等实现方式。 -
RAG中的智能体:智能体为大语言模型提供工具执行任务,OpenAI Assistants具备多种实用工具,多文档智能体方案可实现复杂的文档处理功能,但存在速度较慢的问题。 -
编码器和大语言模型微调:对Transformer编码器、排序器和大语言模型进行微调,可以提升检索质量和生成答案的能力,但要注意可能存在的问题,如使用小型合成数据集微调可能降低模型整体能力。 -
评估:有多种评估RAG系统性能的框架,如Ragas、OpenAI的方法、LangChain的LangSmith等,通过答案相关性、忠实度等指标评估系统表现。
20. 3W4000字 大模型评估全解析:方法、指标与框架
这篇文章围绕大语言模型评估展开,详细介绍了评估方法、指标、框架等内容,旨在帮助读者全面了解大语言模型评估体系,具体如下:
-
评估的重要性与思路:大语言模型应用广泛,但如何评估其有效性至关重要。选择模型时,不能仅依赖提示工程,要根据是否有标准答案、是否需自动化评估、有无时间限制等因素,选择合适的评估策略,如准确率、相似性指标、大语言模型评判器或人工评估等。 -
基准测试与评估的差异:基准测试是标准化测试,用预定义数据集和指标评估模型在特定任务上的表现,便于比较和量化结果;评估范围更广,除测试外还考虑模型实际适用性、公平性、可解释性等,常以基准测试为基础。 -
大语言模型基准测试 -
框架与能力评估:基准测试框架通过标准化测试评估模型推理、理解等多种能力,涵盖推理和常识、语言理解、编码、对话等多个方面。 -
主要基准测试:介绍语言理解和问答、常识和推理、编码、对话和聊天机器人等领域的常用基准测试,如TruthfulQA、MMLU、ARC、HumanEval、Chatbot Arena等。 -
局限性:基准测试存在领域相关性差、生命周期短等问题,但可通过合成数据生成等方法克服。
-
-
评估指标:评估指标根据任务需求对模型输出评分,优秀指标具有可量化、可靠、准确的特点。计算指标分数的方法包括统计评分器、基于模型的评分器,以及结合两者的评分器,不同方法各有优劣。 -
评估基于大语言模型的应用:依据交互模式和预期答案类型选择评估指标,如知识寻求、文本关联、创造力等交互模式。评估前要先评估评估策略与人类判断的相关性,构建评估集时要保证数据集足够大且能代表生产环境数据。 -
大语言模型评估框架:介绍DeepEval等多种评估框架,其中DeepEval是开源框架,具有易“单元测试”、指标丰富、可自定义等特点,还介绍了其在评估RAG相关指标及微调指标方面的应用。
21. 2W6000字 大模型核心技术综述:微调、推理与优化指南
这篇文章围绕大语言模型展开,涵盖模型基础概念、架构发展、训练优化、推理参数、提示工程以及模型优化技术等多方面内容。
-
大语言模型基础:大语言模型(LLM)是基于Transformer架构的深度学习模型,在大量数据上预训练,能理解文本关系。语言模型学习文本语料库生成概率,预测后续单词,经历了从n - gram到神经语言模型的发展。 -
架构发展:早期大语言模型多基于RNN及LSTM、GRU,但存在训练慢、梯度消失等问题。Transformer架构解决了这些问题,它采用自注意力机制,可并行处理,训练时间短,成为当前大语言模型的主流架构。 -
训练与优化:预训练阶段在大量文本上自监督训练,计算成本高。数据并行训练技术如分布式数据并行(DDP)和全分片数据并行(FSDP)可解决内存问题。微调能让模型适应特定任务,迁移学习、PEFT等多种技术可实现高效微调。 -
推理参数:使用大语言模型推理时,可配置Top-k采样、温度参数、Top-P采样、最大长度、上下文提示等参数,控制输出的多样性、连贯性和长度。 -
提示工程:提示工程是与大语言模型沟通的方法,通过构建提示引导模型行为。包括少样本提示、思维链(CoT)提示、PAL、ReAct提示等,能提升模型在不同任务中的表现。 -
模型优化技术:模型压缩方法有量化、蒸馏和剪枝。量化通过降低权重精度减小模型大小,有训练后量化和量化感知训练两种方式;蒸馏将教师模型知识转移到学生模型;剪枝通过修剪权重或连接减小模型大小,分非结构化和结构化剪枝。
22. 1W8000 字 探秘 RAG 应用搜索:从语义搜索到评估指标的深度解析
本文围绕检索增强生成(RAG)应用程序中的搜索过程展开探讨,涵盖搜索优势、面临问题、搜索类型、检索算法等多方面内容,强调持续优化和全面评估的重要性。
-
RAG应用中的搜索概述:在RAG流程里,用户查询经分词和嵌入处理后,从知识库提取相关文本块。以开发客户支持聊天机器人为例,该方式能减少大语言模型处理数据的时间和资源,支持数据库实时更新,提升回复质量和客户满意度。 -
搜索与检索的问题及优化 -
存在问题:独特或高度特定的查询可能导致系统匹配不到完全相关的文本块,使大语言模型回复不理想,降低用户满意度。 -
预防策略:监测查询密度,若其漂移则扩充向量存储;关注排名指标评估系统性能;收集用户反馈,依此调整应用程序。 -
优化措施:构建阶段注重测试和评估,优化分块策略和检索性能;生产后阶段持续扩展知识库、优化分块策略、增强上下文理解。
-
-
搜索类型 -
关键词搜索:适用于用户明确搜索内容,期望精确匹配的场景,无需向量数据库。 -
向量搜索:适用于用户搜索目标不明确的情况,需向量数据库支持。 -
混合搜索:结合全文关键词搜索和向量搜索结果,并用交叉编码器模型重新排名,需要文档数据库和向量数据库。
-
-
检索算法: 相似性搜索常用余弦相似度等度量返回相似文档,最大边际相关性(MMR)则在检索时考虑文档间相似程度,使结果更具多样性。 -
检索与重排:复杂搜索任务中,先通过检索系统(如词汇搜索或密集检索)获取候选文档,再用基于交叉编码器的重排器对其相关性评分排序,以提升搜索效果。文中还介绍了预训练双编码器和交叉编码器的使用。 -
信息检索的评估:评估指标分在线指标(如点击率,反映用户交互情况)和离线指标(在部署前测量,关注检索结果相关性)。离线指标又分无序敏感指标(如召回率@K )和有序敏感指标(如平均倒数排名、平均精度均值@K、归一化折损累计增益@K )。实际应用中可多个指标结合使用,提升评估准确性。
本文由 mdnice 多平台发布
相关文章:
2W8000字 LLM架构文章阅读指北
❝ 大模型架构专栏已经更新了30多篇文章。完整的专栏内容欢迎订阅: LLM 架构专栏 1、LLM大模型架构专栏|| 从NLP基础谈起 2、 LLM大模型架构专栏|| 自然语言处理(NLP)之建模 3、 LLM大模型架构之词嵌入(Part1) 3、 LLM…...
Milkv-duo256 接入tuya 云并实现远程智能控制
tuyaopen-embedded-core 是将 https://github.com/tuya/tuyaopen 连接 tuya 云相关核心组件重新组织,可快速嵌入至各种嵌入式平台使用。 tuyaopen-embedded-core 可通过 WiFi、有线以太网、CAT-1、4G 等多种方式接入涂鸦云,实现设备远程控制、OTA 等功能…...
Hadoop之02:MR-图解
1、不是所有的MR都适合combine 1.1、map端统计出了不同班级的每个学生的年龄 如:(class1, 14)表示class1班的一个学生的年龄是14岁。 第一个map任务: class1 14 class1 15 class1 16 class2 10第二个map任务: class1 16 class2 10 class…...
YOLOv8目标检测推理流程及C++代码
这部分主要是使用c++对Onnx模型进行推理,边先贴代码,过段时间再详细补充下代码说明。 代码主要分成三部分,1.main_det.cpp推理函数主入口;2.inference_det.h 头文件及inference_det.cpp具体函数实现;3.CMakeList.txt. 1.main_det 推理配置信息全部写在config.txt中,执行…...
【AVRCP】深入解析AVRCP应用层:功能支持与映射
在最近的项目开发中,深入研究了Audio/Video Remote Control Profile(AVRCP)的应用层特性。在蓝牙音频/视频远程控制规范(AVRCP)的架构中,应用层扮演着至关重要的角色,它定义了符合该规范的设备所…...
springboot之HTML与图片生成
背景 后台需要根据字段动态生成HTML,并生成图片,发送邮件到给定邮箱 依赖 <!-- freemarker模板引擎--> <dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-freemarker</artifa…...
Hive-04之存储格式、SerDe、企业级调优
一、主题 hive表的数据压缩和文件存储格式hive的自定义UDF函数hive的JDBC代码操作hive的SerDe介绍和使用hive的优化 二、要点 1. hive表的文件存储格式 Hive支持的存储数的格式主要有:TEXTFILE(行式存储) 、SEQUENCEFILE(行式存储)、ORC&…...
链表的概念和结构
文章目录 1. 链表的概念2. 链表的分类3. 单向不带头非循环链表3.1 接口设计(SList.h)3.2 接口实现(SList.c)1)打印和创建结点2)头尾插入删除3)查找和插入4)删除和销毁 3.3 完整代码S…...
使用AI后为什么思考会变得困难?
使用AI后为什么思考会变得困难? 我总结了四篇近期的研究论文,来展示AI是如何以及为什么侵蚀我们的批判性思维能力。 作者使用AI制作的图像 前言:作者在这篇文章中,借AI技术的崛起,揭示了一场悄然发生的思想博弈。表面…...
Github 2025-03-02 php开源项目日报Top10
根据Github Trendings的统计,今日(2025-03-02统计)共有10个项目上榜。根据开发语言中项目的数量,汇总情况如下: 开发语言项目数量PHP项目10Blade项目1JavaScript项目1Nextcloud服务器:安全的数据之家 创建周期:2796 天开发语言:PHP, JavaScript协议类型:GNU Affero Gene…...
智能座舱介绍
目录 智能座舱智能座舱的核心技术组成车载信息娱乐系统(IVI)数字仪表盘与HUD(抬头显示)语音交互与AI助手多屏联动与场景化交互生物识别技术智能座舱的发展趋势沉浸式体验情感化与个性化多模态交互融合车联网(V2X)生态扩展应用场景挑战与未来硬件系统软件系统关键技术智能…...
2025年能源工作指导意见
2025年是“十四五”规划收官之年,做好全年能源工作意义重大。为深入贯彻落实党中央、国务院决策部署,以能源高质量发展和高水平安全助力我国经济持续回升向好,满足人民群众日益增长的美好生活用能需求,制定本意见。 一、总体要求…...
豪越科技:智慧园区后勤单位消防安全管理,实时告警与整改闭环
在当今数字化、智能化飞速发展的时代,智慧园区已成为现代产业发展的重要载体。而园区后勤单位的消防安全管理,作为保障园区安全运营的关键环节,正面临着前所未有的挑战与机遇。豪越科技凭借其先进的技术和丰富的经验,为智慧园区后…...
zookeeper-docker版
Zookeeper-docker版 1 zookeeper概述 1.1 什么是zookeeper Zookeeper是一个分布式的、高性能的、开源的分布式系统的协调(Coordination)服务,它是一个为分布式应用提供一致性服务的软件。 1.2 zookeeper应用场景 zookeeper是一个经典的分…...
华为手机自助维修的方法
测试环境:华为荣耀 (全文完)...
基于Springboot博物馆文博资源库系统【附源码】
基于Springboot博物馆文博资源库系统 效果如下: 系统登陆页面 文物信息管理页面 流动申请页面 文物报修页面 个人信息页面 文物保修管理页面 系统主页面 文物类型页面 研究背景 随着信息技术的飞速发展,博物馆文博资源的管理与利用日益受到重视。传统…...
辛格迪客户案例 | 祐儿医药科技GMP培训管理(TMS)项目
01 项目背景:顺应行业趋势,弥补管理短板 随着医药科技行业的快速发展,相关法规和标准不断更新,对企业的质量管理和人员培训提出了更高要求。祐儿医药科技有限公司(以下简称“祐儿医药”)作为一家专注于创新…...
Git 2.48.1 官方安装与配置全流程指南(Windows平台)
一、软件简介 Git 是 分布式版本控制系统 的标杆工具,由 Linus Torvalds 开发,广泛应用于代码版本管理、团队协作开发等场景。2.48.1 版本优化了文件系统监控性能,并修复了跨平台兼容性问题。 二、下载准备 1. 官方下载地址 访问 Git 官网…...
MATLAB中asManyOfPattern函数用法
目录 语法 说明 示例 匹配尽可能多的模式实例 指定要匹配的最小模式数 指定要匹配的最小和最大模式数 asManyOfPattern函数的功能是模式匹配次数尽可能多。 语法 newpat asManyOfPattern(pat) newpat asManyOfPattern(pat,minPattern) newpat asManyOfPattern(pat,m…...
大模型推理时的尺度扩展定律
大模型推理时的尺度扩展定律 FesianXu at 20250212 at Wechat Search Team 前言 大模型的尺度扩展定律告诉我们:『LLM的性能会随着模型的参数量、模型的训练量、模型的训练数据量的增加而增加』。训练存在尺度扩展定律,测试也存在尺度扩展定律ÿ…...
迷你世界脚本世界UI接口:UI
世界UI接口:UI 彼得兔 更新时间: 2023-10-25 10:40:44 具体函数名及描述如下: 序号 函数名 函数描述 1 setGBattleUI(...) 设置战斗总结UI 2 world2RadarPos(...) 世界坐标转换到小地图 3 world2RadarDist(...) 世界长度转换到小地图 4 …...
局域网自动识别机器名和MAC并生成文件的命令
更新版本:添加了MAC 地址 确定了设备唯一性 V1.1 局域网自动识别机器名和MAC并生成文件的批处理命令 echo off setlocal enabledelayedexpansionREM 设置输出文件 set outputFilenetwork_info.txtREM 清空或创建输出文件 echo Scanning network from 192.168.20.1…...
神经网络之词嵌入模型(基于torch api调用)
一、Word Embedding(词嵌入)简介 Word Embedding(词嵌入): 词嵌入技术是自然语言处理(NLP)领域的一项重大创新,它极大地推动了计算机理解和处理人类语言的能力。 通过将单词、句子甚…...
微服务即时通信系统---(七)文件管理子服务
目录 功能设计 模块划分 业务接口/功能示意图 服务实现流程 服务代码实现 封装文件操作模块(utils.hpp) 获取唯一标识ID 文件读操作 文件写操作 编写proto文件 文件元信息 文件管理proto 单文件上传 多文件上传 单文件下载 多文件下载 RPC调用 服务端创建子…...
鸿蒙5.0实战案例:基于原生能力获取视频缩略图
往期推文全新看点(文中附带全新鸿蒙5.0全栈学习笔录) ✏️ 鸿蒙(HarmonyOS)北向开发知识点记录~ ✏️ 鸿蒙(OpenHarmony)南向开发保姆级知识点汇总~ ✏️ 鸿蒙应用开发与鸿蒙系统开发哪个更有前景&#…...
《Canvas修仙传·第三重天金丹境(下集)》 ——量子烟花与物理宇宙的混沌法则
各位道友久候!上集我们炼就了《灵蛇奇谭》的元神,今日将开启Canvas修仙路上最绚丽的篇章——掌控微观粒子的创世之力!(ノ≧∀≦)ノ 章前黑话词典 🔍 量子境术语表: 对象池(Object Po…...
Hutool - POI:让 Excel 与 Word 操作变得轻而易举
各位开发者们,在日常的 Java 开发工作里,处理 Excel 和 Word 文件是相当常见的需求。无论是从 Excel 里读取数据进行分析,还是将数据写入 Excel 生成报表,亦或是对 Word 文档进行内容编辑,传统的 Apache POI 库虽然功能…...
请谈谈 Node.js 中的流(Stream)模块,如何使用流进行数据处理?
1. Node.js中的流(Stream)模块 流的基本概念: 流是 Node.js 中用于处理流式数据的抽象接口。 它是一种高效的数据处理机制,适合处理大文件或高数据吞吐量的场景。 流主要有四种类型: Readable:可读流&am…...
DeepSeek 202502 开源周合集
DeepSeek 本周的开源项目体现了其在 AI 技术栈中的深厚积累,从硬件协同优化(FlashMLA)、通信库(DeepEP)、核心计算(DeepGEMM)到推理模型(DeepSeek-R1),覆盖了…...
《从0到1:用Python在鸿蒙系统开发安防图像分类AI功能》
在人工智能与移动应用深度融合的当下,类目标签AI功能成为众多行业提升效率和用户体验的关键技术。本文聚焦于HarmonyOS NEXT API 12及以上版本,以图像分类在智能家居安防领域的应用为例,为开发者详细阐述如何利用Python开发类目标签AI功能,助力鸿蒙技术在该领域的创新应用。…...
【机器学习chp10】降维——(核化)PCA + MDS + lsomap + 拉普拉斯特征映射 + t-NSE + UMAP
目录 一、降维的意义与本质 1、意义 2、本质 3、常见降维方法 (1)线性降维 (2)非线性降维 二、基于重构的降维 1、PCA 2、核化PCA (1)实现过程 步骤一:数据映射与核函数定义 步骤二…...
Visual Studio 2022 常用快捷键
1. 格式化代码:ctrl K,ctrl f 2. 向下插入一行:ctrl shift 回车 3. 全部变成大写:ctrl shift U 4. 全部变成小写:ctrl U 5. 查找: ctrl f 6. 删除当前行: ctrl shi…...
JavaWeb——CSS
一、什么是CSS CSS(Cascading Style Sheet):层叠样式表,是一种用于描述网页内容外观和样式的语言,主要用于控制网页的布局、颜色、字体、间距、动画等视觉效果。 CSS基本语法: CSS基本语法十分简单,基本由以下几个部分…...
Oracle 数据库基础入门(四):分组与联表查询的深度探索(下)
在 Oracle 数据库的操作中,联合查询与子查询是获取复杂数据的关键手段。当单表数据无法满足业务需求时,联合查询允许我们从多张表中提取关联信息,而子查询则能以嵌套的方式实现更灵活的数据筛选。对于 Java 全栈开发者而言,掌握这…...
【欢迎来到Git世界】Github入门
241227 241227 241227 Hello World 参考:Hello World - GitHub 文档. 1.创建存储库 r e p o s i t o r y repository repository(含README.md) 仓库名需与用户名一致。 选择公共。 选择使用Readme初始化此仓库。 2.何时用分支…...
从矩阵乘法探秘Transformer
目录 前言1. transformer背景1.1 回顾线性代数的知识1.1.1 矩阵和行向量1.1.2 矩阵相乘和算子作用1.1.3 从分块矩阵的乘法来看 Q K T V QK^TV QKTV 1.2 encoder-decoder1.3 低阶到高阶语义向量的转换1.4 核心的问题 2. transformer网络结构2.1 基于KV查询的相似性计算2.2 在一个…...
【前端基础】Day 3 CSS-2
目录 1. Emmet语法 1.1 快速生成HTML结构语法 1.2 快速生成CSS样式语法 2. CSS的复合选择器 2.1 后代选择器 2.2 子选择器 2.3 并集选择器 2.4 伪类选择器 2.4.1 链接伪类选择器 2.4.2 focus伪类选择器 2.5 复合选择器总结 3. CSS的元素显示模式 3.1 什么是元素显示…...
Difyにboto3を変更したカスタムDockerイメージの構築手順
Difyにboto3を変更したカスタムDockerイメージの構築手順 はじめに1. Dockerfileの作成2. Dockerイメージのビルド3. docker-compose.yamlの更新変更点: 4. コンテナの再起動注意事項まとめ はじめに DifyのDockerイメージに特定バージョンのboto3を変更する手順を…...
C++ 类和对象(上)
Hello!!!大家早上中午晚上好!!!今天我们来复习C中最重要的内容之一:类和对象!! 一、类的定义 1.1语法 类定义关键字class 类名 {//括号体类定义成员变量或成员函数}&…...
虚拟机快照与linux的目录结构
虚拟机快照是对虚拟机某一时刻状态的完整捕获,包括内存、磁盘、配置及虚拟硬件状态等,保存为独立文件。 其作用主要有数据备份恢复、方便系统测试实验、用于灾难恢复以及数据对比分析。具有快速创建和恢复、占用空间小、可多个快照并存的特点。在管理维…...
代码随想录算法训练营第三十天 | 卡码网46.携带研究材料(二维解法)、卡码网46.携带研究材料(滚动数组)、LeetCode416.分割等和子集
代码随想录算法训练营第三十天 | 卡码网46.携带研究材料(二维解法)、卡码网46.携带研究材料(滚动数组)、LeetCode416.分割等和子集 01-1 卡码网46.携带研究材料(二维) 相关资源 题目链接:46. 携…...
计算机基础:二进制基础03,二进制数的位基和位权
专栏导航 本节文章分别属于《Win32 学习笔记》和《MFC 学习笔记》两个专栏,故划分为两个专栏导航。读者可以自行选择前往哪个专栏。 (一)WIn32 专栏导航 上一篇:计算机基础:二进制基础02,用二进制来计数…...
知识库技术选型:主流Embedding模型特性对比
知识库技术选型:主流Embedding模型特性对比 1. 知识库与大模型结合的背景 知识库是存储和管理结构化知识的系统,广泛应用于问答系统、推荐系统和搜索引擎等领域。随着大语言模型(LLM)的发展,知识库与大模型的结合成为…...
鸿蒙开发第4篇__关于在鸿蒙应用中使用Java语言进行设计
本博文对于鸿蒙APP程序员来说,很重要 HarmonyOS从 API8 开始不再支持使用Java作为开发语言,未来的新功能将在ArkTS中实现. API 8对应的是HarmonyOS 3.0.0版本, 2022年7月27日, 华为发布了HarmonyOS 3.0。 请看下图: 因此&#…...
监控视频流web端播放
最近在弄一个视频监测系统,核心功能之一就是视频监控查看。选择的方案是FFMPEGRTSP2web组合。 1、环境搭建&前期准备: 准备好软件,(ffmpeg网上很多,大家自己去下载吧,rtsp-server已上传,方…...
Java中的泛型类 --为集合的学习做准备
学习目标 ● 掌握在集合中正确使用泛型 ● 了解泛型类、泛型接口、泛型方法 ● 了解泛型上下限 ● 了解基本的使用场景 1.有关泛型 1.1泛型的概念 泛型(Generics)是Java中引入的参数化类型机制,允许在定义类、接口或方法时使用类型参数&a…...
【MySQL】表的基本操作
??表的基本操作 文章目录: 表的基本操作 创建查看表 创建表 查看表结构 表的修改 表的重命名 表的添加与修改 删除表结构 总结 前言: 在数据库中,数据表是存储和组织数据的基本单位,对于数据表的操作是每个程序员需要烂熟…...
横向移动靶场-Tr0ll: 3
Tr0ll: 3来自 <Tr0ll: 3 ~ VulnHub> 1,将两台虚拟机网络连接都改为NAT模式 2,攻击机上做namp局域网扫描发现靶机 nmap -sn 192.168.23.0/24 那么攻击机IP为192.168.23.182,靶场IP192.168.23.187 3,对靶机进行端口服务探测 …...
房屋租赁|房屋租赁系统|基于Springboot的房屋租赁系统设计与实现(源码+数据库+文档)
房屋租赁系统目录 目录 基于Springboot的房屋租赁系统设计与实现 一、前言 二、系统功能设计 三、系统实现 管理员功能模块 房主功能模块 用户功能模块 四、数据库设计 1、实体ER图 五、核心代码 六、论文参考 七、最新计算机毕设选题推荐 八、源码获取:…...
自然语言处理:词频-逆文档频率
介绍 大家好,博主又来给大家分享知识了。本来博主计划完成稠密向量表示的内容分享后,就开启自然语言处理中文本表示的讲解。可在整理分享资料的时候,博主发现还有个知识点,必须得单独拎出来好好说道说道。 这就是TF-IDF…...