当前位置: 首页 > news >正文

【代码解读】开源模型 minimind之pretrain

minimind原模型地址: https://github.com/jingyaogong/minimind
本文解读下开源模型minimind的预训练代码 train_pretrain.py,解释以代码注释的形式添加

1. 参数配置代码

parser = argparse.ArgumentParser(description="MiniMind Pretraining")
parser.add_argument("--out_dir", type=str, default="out") # 模型输出目录
# 若要以最快速度实现zero则epochs设置为1轮;否则应当利用有限的数据训练2~6个epochs。
parser.add_argument("--epochs", type=int, default=1)  # 遍历训练集
parser.add_argument("--batch_size", type=int, default=32) # 每次输入模型样本数量
parser.add_argument("--learning_rate", type=float, default=5e-4) # 学习率
parser.add_argument("--device", type=str, default="cuda:0" if torch.cuda.is_available() else "cpu") 
# CUDA是由NVIDIA开发的用于并行计算的平台(通用计算构建的运算平台,是建立GPU显卡驱动层之上,必须与之相匹配)
parser.add_argument("--dtype", type=str, default="bfloat16") # 数据类型
parser.add_argument("--use_wandb", action="store_true") # wandb日志可视化工具
parser.add_argument("--wandb_project", type=str, default="MiniMind-Pretrain")
parser.add_argument("--num_workers", type=int, default=1) # 控制数据加载和预处理的并行工作进程数量
parser.add_argument("--ddp", action="store_true") # 分布式的数据并行
parser.add_argument("--accumulation_steps", type=int, default=8) # 显存原因模型非常大时batch_size只能很小,更新效果差。梯度累计是指多算几个batch后,使用这些batch平均梯度更新模型
parser.add_argument("--grad_clip", type=float, default=1.0) # 解决梯度消失/爆炸的问题,当预更新的梯度小于阈值时,将预更新的梯度设为阈值
parser.add_argument("--warmup_iters", type=int, default=0) # 学习率预热阶段是为了在训练初期逐渐增加学习率,以帮助模型稳定地更新参数,避免因初始学习率过大而导致的振荡和不稳定。
parser.add_argument("--log_interval", type=int, default=100) #所以每隔10个batch会输出日志
parser.add_argument("--save_interval", type=int, default=100) #模型检查点(checkpoint)的保存间隔
parser.add_argument('--local_rank', type=int, default=-1)#当前进程的本地编号,帮助在分布式环境中区分不同的进程 https://blog.csdn.net/a8039974/article/details/145790920
parser.add_argument('--dim', default=512, type=int) #维度
parser.add_argument('--n_layers', default=8, type=int) #层数
parser.add_argument('--max_seq_len', default=512, type=int) #最大长度
parser.add_argument('--use_moe', default=False, type=bool) #moe
parser.add_argument("--data_path", type=str, default="./dataset/pretrain_hq.jsonl")
args = parser.parse_args()

2.数据加载代码

train_ds = PretrainDataset(args.data_path, tokenizer, max_length=lm_config.max_seq_len)train_sampler = DistributedSampler(train_ds) if ddp else Nonetrain_loader = DataLoader(train_ds,batch_size=args.batch_size,pin_memory=True,drop_last=False,shuffle=False,num_workers=args.num_workers,sampler=train_sampler
)

2.1. 分词器

tokenizer = AutoTokenizer.from_pretrained('./model/minimind_tokenizer')

3.模型代码

3.1. 模型初始化

# 模型配置,继承transformers.PretrainedConfig类,初始化模型参数配置
lm_config = LMConfig(dim=args.dim, n_layers=args.n_layers, max_seq_len=args.max_seq_len, use_moe=args.use_moe)# 初始化模型和分词器实例
model, tokenizer = init_model(lm_config)## init_model代码
def init_model(lm_config):tokenizer = AutoTokenizer.from_pretrained('./model/minimind_tokenizer')model = MiniMindLM(lm_config).to(args.device)Logger(f'LLM总参数量:{sum(p.numel() for p in model.parameters() if p.requires_grad) / 1e6:.3f} 百万')return model, tokenizer

3.2. 模型参数配置

dim: int = 512,       # token向量维度
n_layers: int = 8,    # 解码器transformer 层数(即Encoder和Decoder中的block个数),就多少层有多少个张量对
n_heads: int = 8,     # 多头注意力的头数
n_kv_heads: int = 2,   # ?用于键值对(Key-Value)注意力机制的头数
vocab_size: int = 6400, # 词汇大小
hidden_dim: int = None, # 隐藏层维度
multiple_of: int = 64,  # 隐藏层维度的倍数,隐藏层如果未指定会根据 dim 和 multiple_of 自动计算
norm_eps: float = 1e-5, # ? 控制归一化数据稳定性
max_seq_len: int = 8192, # 最长序列长度,超出截断
rope_theta: int = 1e6,  # ? 旋转位置编码
dropout: float = 0.0, # 在训练过程中随机丢弃(设置为0)神经网络中的一些单元及其连接,从而减少模型对特定特征的依赖,防止过拟合
flash_attn: bool = True, #是否加速注意力计算 FlashAttention的核心原理是将输入QKV分块,并保证每个块能够在一级缓存上完成注意力操作并将结果更新回HBM,从而降低对高带宽内存(HBM)的读写操作
####################################################
# Here are the specific configurations of MOE
# When use_moe is false, the following is invalid
####################################################
use_moe: bool = False,
####################################################
num_experts_per_tok: int = 2,   # 每个 token 的专家数量
n_routed_experts: int = 4,      # 总的专家数量
n_shared_experts: bool = True,  # 是否使用共享专家
scoring_func: str = 'softmax',  # 专家的评分函数
aux_loss_alpha: float = 0.1,    # 辅助损失的权重,用于平衡主损失和辅助损失
seq_aux: bool = True,           # 是否在序列级别上计算辅助损失
norm_topk_prob: bool = True,    # 是否对 top-k 概率进行标准化

3.3. 模型结构

图1
图1

3.3.1 主结构代码
# 继承transformer.PreTrainedModel类
model = MiniMindLM(lm_config).to(args.device)#模型初始化
class MiniMindLM(PreTrainedModel):config_class = LMConfigdef __init__(self, params: LMConfig = None):self.params = params or LMConfig()super().__init__(self.params)self.vocab_size, self.n_layers = params.vocab_size, params.n_layersself.tok_embeddings = nn.Embedding(params.vocab_size, params.dim)self.dropout = nn.Dropout(params.dropout)self.layers = nn.ModuleList([MiniMindBlock(l, params) for l in range(self.n_layers)])self.norm = RMSNorm(params.dim, eps=params.norm_eps)self.output = nn.Linear(params.dim, params.vocab_size, bias=False)self.tok_embeddings.weight = self.output.weightself.register_buffer("pos_cis",precompute_pos_cis(dim=params.dim // params.n_heads, theta=params.rope_theta), # 旋转位置编码persistent=False)self.OUT = CausalLMOutputWithPast() #transformer库一个类,用于处理自回归语言模型的输出。它是一个有序的字典def forward(self,input_ids: Optional[torch.Tensor] = None,past_key_values: Optional[List[Tuple[torch.Tensor, torch.Tensor]]] = None,use_cache: bool = False,**args):past_key_values = past_key_values or [None] * len(self.layers)start_pos = args.get('start_pos', 0)h = self.dropout(self.tok_embeddings(input_ids)) # 对应图1里 Input Embedding层, input_ids是tokenizer分词处理后的输出pos_cis = self.pos_cis[start_pos:start_pos + input_ids.size(1)]past_kvs = []for l, layer in enumerate(self.layers):h, past_kv = layer( # 调用了MiniMindBlock类,是Trnsformer Layer层的主要内容h, pos_cis, # 除第一层输入为Input Embedding层输出,其余层为上层MiniMindBlock的输出past_key_value=past_key_values[l],use_cache=use_cache)past_kvs.append(past_kv)logits = self.output(self.norm(h)) # 对应图1里的Trnsformer Layer结束后先RMSNorm 然后Linear得到回归结果aux_loss = sum(l.feed_forward.aux_loss for l in self.layers if isinstance(l.feed_forward, MOEFeedForward))self.OUT.__setitem__('logits', logits)self.OUT.__setitem__('aux_loss', aux_loss) # MOE的辅助损失self.OUT.__setitem__('past_key_values', past_kvs)return self.OUT
3.3.2. Transformer Layer代码
class MiniMindBlock(nn.Module):'''Trnsformer Layer层,每层包含一个attention(包含attention_norm):对应图1中的GQA,调用了Attention类feed_forward(包含ffn_norm):对应图1中的FFN,调用了FeedForward类'''def __init__(self, layer_id: int, config: LMConfig):super().__init__()self.n_heads = config.n_headsself.dim = config.dimself.head_dim = config.dim // config.n_headsself.attention = Attention(config)self.layer_id = layer_idself.attention_norm = RMSNorm(config.dim, eps=config.norm_eps) # self.ffn_norm = RMSNorm(config.dim, eps=config.norm_eps)self.feed_forward = FeedForward(config) if not config.use_moe else MOEFeedForward(config)def forward(self, x, pos_cis, past_key_value=None, use_cache=False):h_attn, past_kv = self.attention(self.attention_norm(x),pos_cis,past_key_value=past_key_value,use_cache=use_cache)h = x + h_attnout = h + self.feed_forward(self.ffn_norm(h))return out, past_kv
3.3.3. GQA代码(Attenton类)
lass Attention(nn.Module):def __init__(self, args: LMConfig):super().__init__()self.n_kv_heads = args.n_heads if args.n_kv_heads is None else args.n_kv_headsassert args.n_heads % self.n_kv_heads == 0self.n_local_heads = args.n_headsself.n_local_kv_heads = self.n_kv_headsself.n_rep = self.n_local_heads // self.n_local_kv_headsself.head_dim = args.dim // args.n_headsself.wq = nn.Linear(args.dim, args.n_heads * self.head_dim, bias=False)self.wk = nn.Linear(args.dim, self.n_kv_heads * self.head_dim, bias=False)self.wv = nn.Linear(args.dim, self.n_kv_heads * self.head_dim, bias=False)self.wo = nn.Linear(args.n_heads * self.head_dim, args.dim, bias=False)self.attn_dropout = nn.Dropout(args.dropout)self.resid_dropout = nn.Dropout(args.dropout)self.dropout = args.dropoutself.flash = hasattr(torch.nn.functional, 'scaled_dot_product_attention') and args.flash_attn# print("WARNING: using slow attention. Flash Attention requires PyTorch >= 2.0")mask = torch.full((1, 1, args.max_seq_len, args.max_seq_len), float("-inf"))mask = torch.triu(mask, diagonal=1)self.register_buffer("mask", mask, persistent=False)def forward(self,x: torch.Tensor,pos_cis: torch.Tensor,past_key_value: Optional[Tuple[torch.Tensor, torch.Tensor]] = None,use_cache=False):bsz, seq_len, _ = x.shapexq, xk, xv = self.wq(x), self.wk(x), self.wv(x)xq = xq.view(bsz, seq_len, self.n_local_heads, self.head_dim)xk = xk.view(bsz, seq_len, self.n_local_kv_heads, self.head_dim)xv = xv.view(bsz, seq_len, self.n_local_kv_heads, self.head_dim)xq, xk = apply_rotary_emb(xq, xk, pos_cis) #  对应图1中RoPE,旋转位置编码计算,用于将旋转位置嵌入应用到输入张量x上# kv_cache实现if past_key_value is not None:xk = torch.cat([past_key_value[0], xk], dim=1)xv = torch.cat([past_key_value[1], xv], dim=1)past_kv = (xk, xv) if use_cache else Nonexq, xk, xv = (xq.transpose(1, 2),repeat_kv(xk, self.n_rep).transpose(1, 2),repeat_kv(xv, self.n_rep).transpose(1, 2))if self.flash and seq_len != 1:dropout_p = self.dropout if self.training else 0.0output = F.scaled_dot_product_attention(xq, xk, xv,attn_mask=None,dropout_p=dropout_p,is_causal=True)else:scores = (xq @ xk.transpose(-2, -1)) / math.sqrt(self.head_dim) scores += self.mask[:, :, :seq_len, :seq_len] # 加mask掩码scores = F.softmax(scores.float(), dim=-1).type_as(xq)scores = self.attn_dropout(scores)output = scores @ xvoutput = output.transpose(1, 2).reshape(bsz, seq_len, -1)output = self.resid_dropout(self.wo(output))return output, past_kv# 函数 apply_rotary_emb 旋转位置编码
def apply_rotary_emb(xq, xk, pos_cis):def unite_shape(pos_cis, x):ndim = x.ndimassert 0 <= 1 < ndimassert pos_cis.shape == (x.shape[1], x.shape[-1])shape = [d if i == 1 or i == ndim - 1 else 1 for i, d in enumerate(x.shape)]return pos_cis.view(*shape)xq_ = torch.view_as_complex(xq.float().reshape(*xq.shape[:-1], -1, 2))xk_ = torch.view_as_complex(xk.float().reshape(*xk.shape[:-1], -1, 2))pos_cis = unite_shape(pos_cis, xq_)xq_out = torch.view_as_real(xq_ * pos_cis).flatten(3)xk_out = torch.view_as_real(xk_ * pos_cis).flatten(3)return xq_out.type_as(xq), xk_out.type_as(xk)
3.3.4. FFN代码(FeedForward类)
class FeedForward(nn.Module):def __init__(self, config: LMConfig):super().__init__()if config.hidden_dim is None:hidden_dim = 4 * config.dimhidden_dim = int(2 * hidden_dim / 3)config.hidden_dim = config.multiple_of * ((hidden_dim + config.multiple_of - 1) // config.multiple_of)self.w1 = nn.Linear(config.dim, config.hidden_dim, bias=False)self.w2 = nn.Linear(config.hidden_dim, config.dim, bias=False)self.w3 = nn.Linear(config.dim, config.hidden_dim, bias=False)self.dropout = nn.Dropout(config.dropout)def forward(self, x):return self.dropout(self.w2(F.silu(self.w1(x)) * self.w3(x)))
3.3.5. RMSNorm类
class RMSNorm(torch.nn.Module):'''RMSNorm:替代传统的LayerNorm,通过均方根进行归一化,计算公式为:weight * (x / sqrt(mean(x²) + eps))。减少计算量,提升训练稳定性。'''def __init__(self, dim: int, eps: float):super().__init__()self.eps = epsself.weight = nn.Parameter(torch.ones(dim))def forward(self, x):return self.weight * (x.float() * torch.rsqrt(x.pow(2).mean(-1, keepdim=True) + self.eps)).type_as(x)

4.模型训练

     最后输出模型存储目录: out/pretrain_${dim}.pth

# 迭代优化器
optimizer = optim.AdamW(model.parameters(), lr=args.learning_rate)iter_per_epoch = len(train_loader)
for epoch in range(args.epochs):train_epoch(epoch, wandb)

相关文章:

【代码解读】开源模型 minimind之pretrain

minimind原模型地址: https://github.com/jingyaogong/minimind 本文解读下开源模型minimind的预训练代码 train_pretrain.py&#xff0c;解释以代码注释的形式添加 1. 参数配置代码 parser argparse.ArgumentParser(description"MiniMind Pretraining") parser.ad…...

wordpress独立站的产品详情页添加WhatsApp链接按钮

在WordPress外贸独立站的产品展示页添加WhatsApp链接按钮&#xff0c;可以帮助客户更方便地与你联系。以下是实现这一功能的步骤&#xff1a; 方法一&#xff1a;使用HTML代码添加按钮 编辑产品展示页 进入WordPress后台&#xff0c;找到需要添加WhatsApp按钮的产品展示页。…...

从入门到精通汇编语言 第五章(流程转移与子程序)

参考教程&#xff1a;通俗易懂的汇编语言&#xff08;王爽老师的书&#xff09;_哔哩哔哩_bilibili 一、“转移”概述 1、转移的概念 &#xff08;1&#xff09;般情况下指令是顺序地逐条执行的&#xff0c;而在实际中&#xff0c;常需要改变程序的执行流程&#xff0c;这就…...

Redis下载

目录 安装包 1、使用.msi方式安装 2.使用zip方式安装【推荐方式】 添加环境变量 配置后台运行 启动&#xff1a; 1.startup.cmd的文件 2.cmd窗口运行 3.linux源码安装 &#xff08;1&#xff09;准备安装环境 &#xff08;2&#xff09;上传安装文件 &#xff08;3&…...

硬件工程师笔记——电子器件汇总大全

目录 1、电阻 工作原理 欧姆定律 电阻的物理本质 一、限制电流 二、分压作用 三、消耗电能&#xff08;将电能转化为热能&#xff09; 2、压敏电阻 伏安特性 1. 过压保护 2. 电压调节 3. 浪涌吸收 4. 消噪与消火花 5. 高频应用 3、电容 工作原理 &#xff08;…...

第一章,HCIA复习

抽象语言---->电信号抽象语言---编码 编码------二进制 二进制----电信号 OSI参考模型 TCP/IP模型&#xff08;4参考5对等&#xff09; 应用层&#xff1a;程序的编译过程&#xff1b;人机交互的接口。 表示层&#xff1a;数据格式化--->二进制 会话层&#xff1a;维护网…...

在 Debian 12 中恢复被删除的 smb.conf 配置文件

https://forum.ubuntu.com.cn/viewtopic.php?t494763 本文结合ai输出&#xff0c;内容中可能有些错误&#xff0c;但确实解决了我的问题&#xff0c;我采取保留完整输出的方式摘录。 在 Debian 12 中恢复被删除的 smb.conf 配置文件&#xff0c;需结合 dpkg 和 ucf&#xff08…...

Java开发软件

Main.java // 主类&#xff0c;用于测试学生管理系统 public class Main { public static void main(String[] args) { StudentManagementSystem sms new StudentManagementSystem(); // 添加学生 sms.addStudent(new Student(1, "Alice", 20)…...

SSRF学习

靶场 fofa搜&#xff1a;“重庆橙子科技”&#xff0c;里面找SSRF。 SSRF基础知识 绕过127限制 要查看127.0.0.1/flag.php&#xff0c;但是127被过滤。 绕过方法&#xff1a;使用不同的进制表示127.0.0.1即可。 二进制&#xff1a;01111111.00000000.00000000.00000001 八…...

使用virtualbox的HostOnly建立共享网络-实现虚拟机上网

目录 环境描述解决方案具体步骤1.新建一个virtual host-only ethernet adapter2.设置windows的wifi信号网络共享3.确认winows宿主网络信息3.1.wifi适配器的信息3.2.虚拟网卡的信息3.3.确认virtualbox中虚拟网卡的ip地址 4.虚拟机网卡设置5.虚拟机网络设置5.1.本地连接设置5.2.u…...

RNN的理解

对于RNN的理解 import torch import torch.nn as nn import torch.nn.functional as F# 手动实现一个简单的RNN class RNN(nn.Module):def __init__(self, input_size, hidden_size, output_size):super(RNN, self).__init__()# 定义权重矩阵和偏置项self.hidden_size hidden…...

Transformers是一种基于自注意力机制的神经网络模型

概述与发展历程 背景介绍 Transformers是一种基于自注意力机制的神经网络模型&#xff0c;最早由Google团队在2017年的论文《Attention Is All You Need》中提出。该模型旨在解决传统循环神经网络&#xff08;RNNs&#xff09;在处理长距离依赖关系时的低效性问题&#xff0c…...

leetcode0078. 子集-medium

1 题目&#xff1a;子集 官方标定难度&#xff1a;中 给你一个整数数组 nums &#xff0c;数组中的元素 互不相同 。返回该数组所有可能的子集&#xff08;幂集&#xff09;。 解集 不能 包含重复的子集。你可以按 任意顺序 返回解集。 示例 1&#xff1a; 输入&#xff1…...

C++编程 希尔排序

步骤&#xff1a; 1.先选定一个小于N的整数gap作为第一增量&#xff0c;然后将所有距离为gap的元素分在同一组&#xff0c;并对每一组的元素进行直接插入排序。然后再取一个比第一增量小的整数作为第二增量&#xff0c;重复上述操作… 2.当增量的大小减到1时&#xff0c;就相当…...

网络操作系统与应用服务器

1.通过PTR实现IP地址到主机域名的映射 2.在windows中,可以使用事件查看器来游览日志文件 3.IMAP即交互式邮件存取协议,邮件客户端可以使用其同步服务器和客户端之间的邮件列表 4.DHCP Discover ->DHCP Offer->DHCP Request->DHCP Ack 5.在DNS的资源记录中,类型A表…...

不确定与非单调推理的模糊推理

模糊推理是利用模糊性知识进行的一种不确定性推理。 模糊推理与前面讨论的不确定性推理的概率方法、可信度方法、D-S理论有着实质性的区别。前面那几种不确定性推理的理论基础是概率论,它所研究的事件本身有明确而确定的含义,只是由于发生的条件不充分,使得在条件与事件之间…...

Vite打包原理: Tree-shaking在Vue3项目中的实际效果

Vite打包原理: Tree-shaking在Vue3项目中的实际效果 随着前端开发技术的不断进步&#xff0c;Vue框架在国内外都备受青睐。而在Vue3项目中&#xff0c;Vite作为一款新型的构建工具&#xff0c;其支持的Tree-shaking技术成为了开发者关注的焦点之一。那么&#xff0c;Vite中Tree…...

LangChain4j语言模型选型指南:主流模型能力全景对比

LangChain4j语言模型选型指南&#xff1a;主流模型能力全景对比 前言 在大语言模型应用开发中&#xff0c;选择合适的底层模型提供商是架构设计的关键决策。LangChain4j作为Java生态的重要AI框架&#xff0c;其支持的20模型提供商各有独特的优势场景。本文通过功能矩阵深度解…...

聚宽策略----国九条后中小板微盘小改,年化135.40%

最近在研究的聚宽策略&#xff0c;一般技术分析的我直接转qmt了&#xff0c;财务因子有一点麻烦&#xff0c;我直接利用我开发强大的服务器系统&#xff0c;直接读取信号&#xff0c;最近在优化一下系统&#xff0c;最近在开发对接bigquant的交易系统&#xff0c;完成了api数据…...

FreeRTOS中断管理

中断优先级 任何中断的优先级都大于任务&#xff01; 在我们的操作系统&#xff0c;中断同样是具有优先级的&#xff0c;并且我们也可以设置它的优先级&#xff0c;但是他的优先级并不是从 0 ~ 5 &#xff0c;默认情况下它是从 5 ~ 15 , 0 ~ 4 这5个中断优先级不是FreeRTOS控…...

键入网址到网页显示,期间发生了什么?

文章目录 2.键入网址到网页显示&#xff0c;期间发生了什么&#xff1f;2.1真实地址查询DNS&#xff1a;2.2**协议栈&#xff1a;**上半部分是负责收发数据的TCP和UDP协议&#xff0c;下面一半是用IP协议控制网络包收发操作&#xff0c;在互联网上传数据时&#xff0c;数据会倍…...

代理模式(Proxy Pattern)

文章目录 1. 概述1.1 基本概念1.2 为什么需要代理模式1.3 代理模式的四个角色2. 代理模式的类型2.1 静态代理2.2 JDK动态代理2.3 CGLIB动态代理3. 代理模式的UML类图和基本实现3.1 UML类图3.2 基本实现3.2.1 静态代理基本实现3.2.2 JDK动态代理基本实现3.2.3 CGLIB动态代理基本…...

9.QT-显示类控件|Label|显示不同格式的文本|显示图片|文本对齐|自动换行|缩进|边距|设置伙伴(C++)

Label QLabel 可以⽤来显⽰⽂本和图⽚ 属性说明textQLabel中的⽂本textFormat⽂本的格式.• Qt::PlainText 纯⽂本• Qt::RichText 富⽂本(⽀持html标签)• Qt::MarkdownText markdown格式• Qt::AutoText 根据⽂本内容⾃动决定⽂本格式pixmapQLabel 内部包含的图⽚.scaledCo…...

Python多任务编程:进程全面详解与实战指南

1. 进程基础概念 1.1 什么是进程&#xff1f; 进程(Process)是指正在执行的程序&#xff0c;是程序执行过程中的一次指令、数据集等的集合。简单来说&#xff0c;进程就是程序的一次执行过程&#xff0c;它是一个动态的概念。 想象你打开电脑上的音乐播放器听歌&#xff0c;…...

【英语语法】词法---副词

目录 副词1. 副词的核心功能2. 副词的分类(1) 按意义分类(2) 按形式分类 3. 副词的构成(1) 形容词变副词的规则(2) 不规则变化 4. 副词的位置(1) 修饰动词时的位置(2) 多个副词的排列顺序 5. 副词的比较级与最高级(1) 规则变化&#xff08;同形容词&#xff09;(2) 不规则变化(…...

51c大模型~合集119

我自己的原文哦~ https://blog.51cto.com/whaosoft/13852062 #264页智能体综述 MetaGPT等20家顶尖机构、47位学者参与 近期&#xff0c;大模型智能体&#xff08;Agent&#xff09;的相关话题爆火 —— 不论是 Anthropic 抢先 MCP 范式的快速普及&#xff0c;还是 OpenAI…...

Day3:个人中心页面布局前端项目uniapp壁纸实战

接下来我们来弄一下个人中心页面布局user.vue <template><view class"userLayout"><view class"userInfo"><view class"avatar"><image src"../../static/Kx.jpg" mode"aspectFill"></im…...

多元协同网络拓扑模型

一、组织逻辑架构解构 1.1 多元协同网络拓扑模型 &#xff08;1&#xff09;产业链价值链重构图谱 阶段核心节点技术耦合系数商业转化周期基础层云服务供应商&#xff08;阿里云/ECS集群&#xff09;0.8512-24个月中台层开发者生态&#xff08;百炼平台/API网关&#xff09;…...

基于 Elasticsearch 8.12.0 集群创建索引

索引创建 创建一个产品的索引 解释&#xff1a; productId: 产品的唯一标识符&#xff0c;使用 keyword 类型&#xff0c;适合精确匹配和聚合操作。name: 产品名称&#xff0c;使用 text 类型进行全文搜索&#xff0c;同时包含一个 keyword 子字段用于精确匹配。description:…...

LeetCode283.移动零

给定一个数组 arr&#xff0c;编写一个函数将所有 0 移动到数组的末尾&#xff0c;同时保持非零元素的相对顺序。 请注意 &#xff0c;必须在不复制数组的情况下原地对数组进行操作 示例 1: 输入: nums [0,1,0,3,12] 输出: [1,3,12,0,0] 示例 2 输入: nums [0] 输出: [0…...

select、poll、epoll实现多路复用IO并对比差异

目录 一、select实现多路复用 1.select函数介绍 2.select优缺点 3.select使用示例 二、poll实现多路复用 1.poll函数介绍 2.poll优缺点 3.poll使用示例 三、epoll实现多路复用 1.epoll函数介绍 2.epoll工作原理 3.epoll工作模式 (1)水平触发LT模式 (2)边缘触发ET模…...

FastAPI-MCP

介绍 开源地址&#xff1a; https://github.com/tadata-org/fastapi_mcp FastAPI-MCP 是一个开源项目&#xff0c;旨在简化 FastAPI 应用与现代 AI 代理&#xff08;如基于大语言模型的系统&#xff09;之间的集成。它通过自动将 FastAPI 的所有 API 端点暴露为符合 Model Co…...

Matlab 复合模糊PID

1、内容简介 Matlab 209-复合模糊PID 可以交流、咨询、答疑 2、内容说明 略摘 要:在并联型模糊 PID 复合控制器设计中,必须根据偏差大小及时地调整模糊控制部分和 PID 控制 部分的比例,而这种较为复杂的控制策略利用普通的 Simulink 模块是很难实现的.采用S-函数来解决 这个问…...

javaSE.队列

链表&#xff1a;屁股入队&#xff0c;头部出队 链尾入队&#x1f447; 是while(tail.next!null) &#x1f447; 链首出队&#xff08;head.next)&#x1f447; 仅获取队首&#x1f447;...

c++基础·左值右值

一、左值与右值的本质特征 1. 基础定义 左值 (lvalue) ✅ 可出现在赋值运算符左侧 ✅ 可被取地址&#xff08;有明确存储位置&#xff09; ✅ 通常为具名变量&#xff08;如int a 10;中的a&#xff09; 右值 (rvalue) ❌ 不可出现在赋值左侧 ❌ 不可取地址&#xff08;无持久…...

From RAG to Memory: Non-Parametric Continual Learning for Large Language Models

从RAG到记忆:大语言模型的无参数持续学习 原文链接:https://arxiv.org/pdf/2502.14802 Code: https://github.com/OSU-NLP-Group/HippoRAG 🧠 HippoRAG 2 流程概述 1. 离线索引(Offline Indexing) 在此阶段,HippoRAG 2 构建一个开放式知识图谱(Open KG)以存储知识…...

STM32配置系统时钟

1、STM32配置系统时钟的步骤 1、系统时钟配置步骤 先配置系统时钟&#xff0c;后面的总线才能使用时钟频率 2、外设时钟使能和失能 STM32为了低功耗&#xff0c;一开始是关闭了所有的外设的时钟&#xff0c;所以外设想要工作&#xff0c;首先就要打开时钟&#xff0c;所以后面…...

Docker 安装配置教程(配置国内源)

## 一、Windows 安装 Docker Desktop 1. 系统要求: - Windows 10 64位:专业版、企业版或教育版 - 必须开启 Hyper-V 和容器功能 - 至少 4GB 内存 2. 安装步骤: - 访问 Docker 官网下载 Docker Desktop - 双击安装程序 - 按照向导完成安装 - 重启电脑 ## 二、macOS 安装 Dock…...

016-C语言内存函数

C语言内存函数 文章目录 C语言内存函数1. memcpy2. memmove3. memset4. memcmp 注意&#xff1a; 使用这些函数需要包含 string.h头文件。 1. memcpy void * memcpy ( void * destination, const void * source, size_t num );从source指向的位置开始&#xff0c;向后复制num…...

[FPGA]设计一个DDS信号发生器

一、DDS DDS&#xff08;Data Distribution Service&#xff09; 是一种面向实时分布式系统的通信中间件标准&#xff0c;专为高性能、高可靠性、低延迟的数据传输场景设计。它由对象管理组织&#xff08;OMG&#xff09; 制定并维护&#xff0c;广泛应用于物联网&#xff08;…...

MySQL 线上大表 DDL 如何避免锁表(pt-online-schema-change)

文章目录 1、锁表问题2、pt-online-schema-change 原理3、pt-online-schema-change 实战3.1、准备数据3.2、安装工具3.3、模拟锁表3.4、解决锁表 1、锁表问题 在系统研发过程中&#xff0c;随着业务需求千变万化&#xff0c;避免不了调整线上MySQL DDL数据表的操作&#xff0c…...

脚本中**通配符用法解析

在文件路径匹配中&#xff0c;** 是一种特殊的通配符&#xff08;Glob Pattern&#xff09;&#xff0c;主要用于表示递归匹配任意层级的子目录。这种语法常见于以下场景&#xff1a; 1. 典型应用场景 .gitignore 文件&#xff1a; **/__pycache__ 表示匹配项目根目录下所有层…...

5 提示词工程指南-计划与行动

5 提示词工程指南-计划与行动 计划与行动 Cline 有两种模式: Plan 描述目标和需求、提问与回答、讨论、抽象项目的各个方面、确定技术路线、确定计划 计划与确认相当于架构师,不编写代码Act 按计划编写代码 按照计划编码Plan 模式的本质是构建实际编码前的上下文,Act 的本…...

62页华为IPD-MM流程:市场调研理论与实践方案精读【附全文阅读】

本文围绕市场调研展开,介绍其是联系市场和企业的纽带,具有收集陈述事实、解释信息、预测市场变化的作用,在 IPD 产品开发流程各阶段有不同应用。市场调研类型包括定性和定量研究,一般程序涵盖定义问题、拟定计划、抽样设计等多个环节。常用调研方法多样,各有特点和适用项目…...

(一)mac中Grafana监控Linux上的CPU等(Node_exporter 安装使用)

机器状态监控(监控服务器CPU,硬盘&#xff0c;网络等状态) Node_exporter安装在被测服务器上&#xff0c;启动服务 各步骤的IP地址要换为被测服务器的IP地址Prometheus.yml的 targets值网页访问的ip部分grafana添加数据源的URL 注意&#xff1a;只需要在被监听的服务器安装 n…...

STM32单片机入门学习——第44节: [13-1] PWR电源控制

写这个文章是用来学习的,记录一下我的学习过程。希望我能一直坚持下去,我只是一个小白,只是想好好学习,我知道这会很难&#xff0c;但我还是想去做&#xff01; 本文写于&#xff1a;2025.04.20 STM32开发板学习——第44节: [13-1] PWR电源控制 前言开发板说明引用解答和科普一…...

Windows 10 上安装 Spring Boot CLI详细步骤

在 Windows 10 上安装 Spring Boot CLI 可以通过以下几种方式完成。以下是详细的步骤说明&#xff1a; 1. 手动安装&#xff08;推荐&#xff09; 步骤 1&#xff1a;下载 Spring Boot CLI 访问 Spring Boot CLI 官方发布页面。下载最新版本的 .zip 文件&#xff08;例如 sp…...

WEMOS LOLIN32 开发板引脚布局和技术规格

&#x1f517; 快速链接ESP32 Development Boards, Sensors, Tools, Projects and More https://megma.ma/wp-content/uploads/2021/08/Wemos-ESP32-Lolin32-Board-BOOK-ENGLISH.pdf WEMOS LOLIN32 Development Board Details, Pinout, Specs WEMOS LOLIN32 Development Board …...

【AI 加持下的 Python 编程实战 2_07】第七章:基于 Copilot 完整演示问题分解能力在实际问题中的落地应用

【全新第二版《Learn AI-assisted Python Programming》封面】 写在前面 问题分解能力在 AI 辅助编程中具有举足轻重的作用。但是怎样分解才算合理有效呢&#xff1f;本章从一个具体的案例切入&#xff0c;完整展示了 GitHub Copilot 在自顶而下设计论的指导下圆满完成既定任务…...

React 路由入门秘籍:BrowserRouter 的江湖之道

前言 各位江湖中人,今日咱们聊一门流传在前端江湖的神秘绝学:<BrowserRouter>。此技出自 React 路由门派,专修客户端路由之道,擅长在 Web 世界中轻功跳转、闪转腾挪,悄无声息间掌控页面切换。 若你是构建现代 Web 应用的侠客,这篇秘籍堪比九阳真经,一经参悟,便…...