当前位置: 首页 > news >正文

重生之我在2024学Fine-tuning

一、Fine-tuning(微调)概述

        Fine-tuning(微调)是机器学习和深度学习中的一个重要概念,特别是在预训练模型的应用上。它指的是在模型已经通过大量数据训练得到一个通用的预训练模型后,再针对特定的任务或数据集进行进一步训练的过程。

        以下是Fine-tuning的一些关键点:

  1. 预训练模型:在Fine-tuning之前,模型已经在大规模的数据集上进行了训练,学习到了通用的特征和模式。例如,在自然语言处理(NLP)中,BERT(Bidirectional Encoder Representations from Transformers)就是一个预训练模型,它在大量的文本数据上训练,以理解语言的通用结构和语义。

  2. 特定任务:Fine-tuning通常是为了解决一个具体的任务,比如情感分析、问答系统、文本分类等。这些任务可能需要模型对特定类型的数据有更深入的理解。

  3. 数据集与调整参数:Fine-tuning需要一个针对特定任务的数据集,这个数据集可能远小于预训练时使用的数据集,但更专注于任务相关的数据。在Fine-tuning过程中,模型的大部分参数(通常是预训练模型的底层参数)会被保留,只有一小部分参数(如顶层的分类器)会被调整以适应新的任务。

  4. 训练过程与资源效率:Fine-tuning的过程通常比从头开始训练一个模型要快,因为模型已经学习了很多通用的知识,只需要对特定任务进行微调。Fine-tuning是一种资源效率较高的方法,因为它不需要从头开始训练一个大型模型,这样可以节省大量的计算资源和时间。

  5. 迁移学习与过拟合:Fine-tuning是迁移学习的一种形式,即将在一个领域学到的知识应用到另一个领域。由于Fine-tuning使用的数据集通常较小,所以存在过拟合的风险,即模型可能过于适应训练数据,而无法很好地泛化到未见过的数据。

        Fine-tuning是一种强大的技术,它使得模型能够快速适应新任务,同时利用预训练模型的强大能力。

二、大模型微调的底层原理

1.预训练与迁移学习

        大模型微调的基础是预训练模型,这些模型已经在大规模数据集上进行了训练,学习到了通用的特征和模式。微调过程实际上是迁移学习的一种应用,它将预训练模型的知识迁移到新的任务上。在这个过程中,模型的大部分参数(通常是底层参数)被保留,只有一小部分参数(如顶层的分类器或输出层)被调整以适应新任务。这种策略可以减少过拟合的风险,同时利用预训练模型在底层学到的通用特征。

2.参数更新与适应性调整

        在微调过程中,模型的参数更新策略是关键。通常,只有模型的顶层或部分层会被更新,而底层的参数保持不变。这种策略允许模型在保持其在预训练阶段学到的通用知识的同时,对特定任务进行适应性调整。通过这种方式,模型可以快速适应新任务,而无需从头开始训练,这大大减少了计算资源的需求。此外,微调过程中可能会调整学习率和其他超参数,以优化模型在新任务上的学习效率和性能。

3.低秩适应与参数效率

        为了进一步提高微调的参数效率,一些技术如LoRA(Low-Rank Adaptation)被提出。LoRA通过在模型的特定层引入低秩矩阵来模拟参数的改变量,从而以极小的参数量实现大模型的间接训练。这种方法假设预训练模型的权重变化可以通过低秩矩阵来近似,这意味着相对于直接微调所有模型参数,通过低秩矩阵的调整,可以用更少的参数达到近似效果。这种技术显著减少了微调过程中需要更新的参数数量,降低了计算成本,同时仍然能够使模型适应新任务。

三、常用的Fine-tuning方法

1.全量微调(Full Fine-tuning)

        这种方法涉及利用特定任务数据调整预训练模型的所有参数,以充分适应新任务。这种方法依赖大规模计算资源,但能有效利用预训练模型的通用特征,通常能够获得较好的性能提升。以下是一个使用PyTorch和Hugging Face的Transformers库进行全量微调的示例代码。这个例子中,我们将使用一个预训练的BERT模型来微调一个文本分类任务。

import torch
from torch.utils.data import DataLoader, RandomSampler, SequentialSampler
from transformers import BertTokenizer, BertForSequenceClassification, AdamW, get_linear_schedule_with_warmup
from sklearn.metrics import accuracy_score# 检查是否有可用的GPU,如果有则使用GPU
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")# 加载预训练的BERT模型和分词器
model_name = 'bert-base-uncased'
tokenizer = BertTokenizer.from_pretrained(model_name)
model = BertForSequenceClassification.from_pretrained(model_name)# 将模型移动到GPU上(如果可用)
model.to(device)# 假设我们有一些数据集,这里我们使用随机数据作为示例
# 你需要替换这些数据为你的实际数据集
train_data = [{'text': "I love using BERT for text classification.", 'label': 1},{'text': "BERT is not useful for my task.", 'label': 0},# ... 更多数据 ...
]# 将文本数据编码为模型可以理解的格式
input_ids = []
attention_masks = []
labels = []for data in train_data:encoded = tokenizer.encode_plus(data['text'],add_special_tokens=True,max_length=64,return_attention_mask=True,return_tensors='pt',)input_ids.append(encoded['input_ids'])attention_masks.append(encoded['attention_mask'])labels.append(data['label'])# 将数据转换为PyTorch张量
input_ids = torch.cat(input_ids, dim=0)
attention_masks = torch.cat(attention_masks, dim=0)
labels = torch.tensor(labels)# 创建DataLoader
train_data = torch.utils.data.TensorDataset(input_ids, attention_masks, labels)
train_sampler = RandomSampler(train_data)
train_dataloader = DataLoader(train_data, sampler=train_sampler, batch_size=8)# 设置优化器和学习率调度器
optimizer = AdamW(model.parameters(), lr=2e-5, eps=1e-8)
total_steps = len(train_dataloader) * 3  # 假设我们训练3个epoch
scheduler = get_linear_schedule_with_warmup(optimizer,num_warmup_steps=0,num_training_steps=total_steps
)# 训练模型
model.train()
for epoch in range(3):  # 训练3个epochfor batch in train_dataloader:batch = tuple(t.to(device) for t in batch)inputs = {'input_ids': batch[0],'attention_mask': batch[1],'labels': batch[2]}optimizer.zero_grad()outputs = model(**inputs)loss = outputs.lossloss.backward()optimizer.step()scheduler.step()# 评估模型(这里需要一个真实的测试集)
# 这里省略了评估代码,你需要根据你的数据集来实现评估逻辑# 保存模型
model.save_pretrained('./my_fine_tuned_bert_model')

请注意,这个代码是一个简化的示例,实际应用中你需要准备一个真实的数据集,并可能需要添加更多的训练逻辑,比如模型评估、早停(early stopping)、保存最佳模型等。此外,你还需要确保数据集的格式与模型输入的要求相匹配。

2.参数高效微调(Parameter-Efficient Fine-Tuning, PEFT)

这种技术旨在通过最小化微调参数的数量和计算复杂度,实现高效的迁移学习。它仅更新模型中的部分参数,显著降低训练时间和成本,适用于计算资源有限的情况。PEFT技术包括:

2.1 前缀调优(Prefix-tuning)

在输入前添加可学习的virtual tokens作为Prefix,仅更新Prefix参数,Transformer其他部分固定。

from transformers import AutoModelForCausalLM
from peft import PeftModel, PeftConfig# 加载预训练模型
model_name_or_path = "bert-base-uncased"
model = AutoModelForCausalLM.from_pretrained(model_name_or_path)# 创建PeftConfig配置
peft_config = PeftConfig.from_pretrained(model_name_or_path)# 应用前缀调优
peft_model = PeftModel.from_pretrained(model, peft_config, torch_dtype=torch.float16)# 打印可训练参数数量
peft_model.print_trainable_parameters()

这段代码首先加载了一个预训练的BERT模型,然后创建了一个PeftConfig配置,最后应用前缀调优并打印出可训练的参数数量。

2.2 提示调优(Prompt-tuning)

在输入层加入prompt tokens,简化版的Prefix Tuning,无需MLP调整。随着模型规模增大,效果接近full fine-tuning。

from transformers import AutoModelForCausalLM, AutoTokenizer# 加载预训练模型和分词器
model_name_or_path = "bert-base-uncased"
tokenizer = AutoTokenizer.from_pretrained(model_name_or_path)
model = AutoModelForCausalLM.from_pretrained(model_name_or_path)# 添加prompt tokens
prompt = tokenizer(["explain", "the", "concept", "of"], return_tensors="pt")
input_ids = torch.cat([prompt["input_ids"], torch.randint(0, 100, (1, 10))])  # 添加随机tokens# 将输入传递给模型
outputs = model(input_ids)

这段代码加载了一个预训练的BERT模型和分词器,然后添加了prompt tokens到输入中,并传递给模型。

2.3 Adapter调优(Adapter Tuning)

设计Adapter结构并嵌入Transformer中,仅对新增的Adapter结构进行微调,原模型参数固定。

from transformers import AutoModelForSequenceClassification, AdapterConfig# 加载预训练模型
model_name_or_path = "bert-base-uncased"
model = AutoModelForSequenceClassification.from_pretrained(model_name_or_path)# 创建AdapterConfig配置
adapter_config = AdapterConfig(r=1, lora_alpha=32, lora_dropout=0.1)# 应用Adapter调优
model.add_adapter(name="task_specific", config=adapter_config)# 打印可训练参数数量
model.print_trainable_parameters()

这段代码加载了一个预训练的BERT模型,创建了一个AdapterConfig配置,并应用Adapter调优。最后打印出可训练的参数数量。

3.冻结部分层进行微调

在Fine-tuning过程中,通常会冻结预训练模型中较低层级(靠近输入端)的参数不变,仅对较高层级(靠近输出端)的参数进行训练。这是因为底层特征通常更具通用性,而高层特征与特定任务关联更紧密。以下是一个使用PyTorch和Hugging Face的Transformers库进行这种微调策略的示例代码。这个例子中,我们将使用一个预训练的BERT模型来微调一个文本分类任务。

import torch
from torch.utils.data import DataLoader, Dataset
from transformers import BertTokenizer, BertForSequenceClassification, AdamW# 检查是否有可用的GPU,如果有则使用GPU
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")# 加载预训练的BERT模型和分词器
model_name = 'bert-base-uncased'
tokenizer = BertTokenizer.from_pretrained(model_name)
model = BertForSequenceClassification.from_pretrained(model_name)# 将模型移动到GPU上(如果可用)
model.to(device)# 冻结预训练模型的底层参数
for param in model.bert.parameters():param.requires_grad = False# 仅对分类器头部的参数进行训练
for param in model.classifier.parameters():param.requires_grad = True# 假设我们有一些数据集,这里我们使用随机数据作为示例
# 你需要替换这些数据为你的实际数据集
class SimpleDataset(Dataset):def __init__(self, texts, labels):self.texts = textsself.labels = labelsdef __len__(self):return len(self.texts)def __getitem__(self, idx):text = self.texts[idx]label = self.labels[idx]encoding = tokenizer.encode_plus(text,add_special_tokens=True,max_length=64,return_attention_mask=True,return_tensors='pt',padding='max_length',truncation=True,)return {'input_ids': encoding['input_ids'].flatten(),'attention_mask': encoding['attention_mask'].flatten(),'labels': torch.tensor(label, dtype=torch.long)}# 创建数据集和数据加载器
texts = ["I love using BERT for text classification.", "BERT is not useful for my task."]
labels = [1, 0]  # 假设1是正面,0是负面
dataset = SimpleDataset(texts, labels)
dataloader = DataLoader(dataset, batch_size=2)# 设置优化器
optimizer = AdamW(model.classifier.parameters(), lr=5e-5)# 训练模型
model.train()
for epoch in range(3):  # 训练3个epochfor batch in dataloader:batch = {k: v.to(device) for k, v in batch.items()}inputs = {'input_ids': batch['input_ids'],'attention_mask': batch['attention_mask'],'labels': batch['labels']}optimizer.zero_grad()outputs = model(**inputs)loss = outputs.lossloss.backward()optimizer.step()# 保存模型
model.save_pretrained('./my_fine_tuned_bert_model')

在这个示例中,我们首先加载了一个预训练的BERT模型,并将其移动到GPU上(如果可用)。然后,我们冻结了BERT模型的底层参数,只允许分类器头部的参数进行训练。我们创建了一个简单的数据集和数据加载器,并设置了优化器。在训练过程中,我们只更新分类器头部的参数。最后,我们保存了微调后的模型。

4.微调全部层

虽然风险略高,但有时也会选择对整个预训练模型的所有参数进行微调。这在目标任务与预训练任务高度相关、数据量充足且计算资源允许的情况下较为有效。以下是一个示例代码,展示了如何在目标任务与预训练任务高度相关、数据量充足且计算资源允许的情况下,对整个预训练模型的所有参数进行微调。

from transformers import BertForSequenceClassification, BertTokenizer, Trainer, TrainingArguments
import torch# 选择预训练模型
model_name = "bert-base-uncased"# 加载预训练模型和分词器
tokenizer = BertTokenizer.from_pretrained(model_name)
model = BertForSequenceClassification.from_pretrained(model_name, num_labels=2)# 准备训练和验证数据集
# 这里假设已经有了train_dataset和eval_dataset
# train_dataset = ...
# eval_dataset = ...# 设置训练参数
training_args = TrainingArguments(output_dir="./results",per_device_train_batch_size=16,per_device_eval_batch_size=64,num_train_epochs=3,evaluation_strategy="epoch",learning_rate=2e-5,save_total_limit=2,save_steps=500,load_best_model_at_end=True,  # 保存最佳模型metric_for_best_model="accuracy",  # 根据准确率选择最佳模型greater_is_better=True,push_to_hub=False,
)# 初始化Trainer
trainer = Trainer(model=model,args=training_args,train_dataset=train_dataset,eval_dataset=eval_dataset,tokenizer=tokenizer,
)# 开始训练
trainer.train()# 评估模型性能
results = trainer.evaluate()
print(results)

        这个示例展示了如何对整个预训练模型进行全量微调,适用于目标任务与预训练任务高度相关且计算资源允许的情况。通过这种方式,模型可以充分利用预训练阶段学到的知识,并针对新任务进行优化。

相关文章:

重生之我在2024学Fine-tuning

一、Fine-tuning(微调)概述 Fine-tuning(微调)是机器学习和深度学习中的一个重要概念,特别是在预训练模型的应用上。它指的是在模型已经通过大量数据训练得到一个通用的预训练模型后,再针对特定的任务或数据…...

若依前后端分离项目中可以删除哪些原若依有的?

在若依(RuoYi)前后端分离项目中完成二次开发后,可以删除以下未使用的模块和文件以简化项目结构。以下分模块和风险点说明: --- ### **一、后端(Spring Boot)可删除内容** #### 1. **未使用的功能模块** …...

element-plus中,vue3项目,el-input密码框禁止浏览器自动弹出浏览器历史密码提示框

原代码&#xff08;密码框是text框&#xff09;&#xff1a; <el-form-item label"用户名" :label-width"formLabelWidth" v-if"!localOrhuawei" prop"userName"><el-input v-model"formDialog.userName" />&l…...

二叉树的遍历与构造

唉&#xff0c;好想回家&#xff0c;我想回家跟馒头酱玩&#xff0c;想老爸老妈。如果上天再给我一次选择的机会&#xff0c;我会选择当一只小动物&#xff0c;或者当棵大树也好&#xff0c;或者我希望自己不要有那么多多余的情绪&#xff0c;不要太被别人影响&#xff0c;开心…...

「Mac畅玩AIGC与多模态23」开发篇19 - Markdown 富文本输出工作流示例

一、概述 本篇基于格式化文本整合的经验&#xff0c;进一步介绍如何通过 LLM 输出标准 Markdown 内容&#xff0c;并在前端正确渲染出标题、列表、加粗等富文本格式&#xff0c;提升展示效果与内容结构可读性。 二、环境准备 macOS 系统Dify 平台已部署并可访问 三、在 Dif…...

记录学习《手动学习深度学习》这本书的笔记(十)

因为最近在做《语音与语言理解综合处理》的实验&#xff0c;所以打算先看第14章&#xff1a;自然语言处理&#xff1a;预训练和第15章&#xff1a;自然语言处理&#xff1a;应用&#xff0c;之后再来看第13章&#xff1a;计算机视觉。 第十四章&#xff1a;自然语言处理&#…...

Flowable7.x学习笔记(二十一)查看我的发起

前言 “查看我的发起”功能&#xff0c;就是将当前用户作为流程发起人启动的所有流程实例集中展示&#xff0c;帮助用户随时跟踪自己提交的业务请求的状态与历史&#xff0c;提升透明度与可控性。 业务人员通常不知道流程引擎底层如何运转&#xff0c;只关心“我提交的报销/申请…...

【Bootstrap V4系列】学习入门教程之 组件-折叠(Collapse)

Bootstrap V4系列 学习入门教程之 组件-折叠&#xff08;Collapse&#xff09; 折叠&#xff08;Collapse&#xff09;How it works一、Example二、Horizontal 水平的三、Multiple targets 多个目标四、Accordion example 手风琴示例 折叠&#xff08;Collapse&#xff09; 通…...

ROS1和ROS2使用桥接工具通信

前提&#xff1a;主从机在同一局域网内&#xff0c;可以互相ping通 我的两个设备其中一个无法连接wifi,ubuntu老生常谈的问题.....&#xff0c;获得新的技能&#xff1a;手机蓝牙提供网络&#xff0c;两个设备连接手机蓝牙就可以连接网络并且处于同一个局域网内。 我的主机为…...

尤雨溪宣布:Vue 生态正式引入 AI

在前端开发领域,Vue 框架一直以其易用性和灵活性受到广大开发者的喜爱。 而如今,Vue 生态在人工智能(AI)领域的应用上又迈出了重要的一步。 尤雨溪近日宣布,Vue、Vite 和 Rolldown 的文档网站均已添加了llms.txt文件,这一举措旨在让大型语言模型(LLM)更方便地理解这些…...

分布式id的两大门派!时钟回拨问题的解决方案!

2.1 两大门派 目前业界的分布式ID实现路径归结起来有两派&#xff1a;一派以雪花算法为代表&#xff0c;不强依赖DB能力&#xff0c;只使用分布式节点自身信息&#xff08;时间戳节点ID序列号&#xff09;的编码生成唯一序列&#xff0c;好处是去中心化、无单点风险&#xff1…...

QMK键盘固件配置详解

QMK键盘固件配置详解 前言 大家好&#xff01;今天给大家带来QMK键盘固件配置的详细指南。如果你正在DIY机械键盘或者想要给自己的键盘刷固件&#xff0c;这篇文章绝对不容错过。QMK是目前最流行的开源键盘固件框架之一&#xff0c;它允许我们对键盘进行高度自定义。接下来&a…...

Jenkins 服务器上安装 Git

安装 Git # 更新包列表 sudo apt update# 安装 Git sudo apt install git 验证安装 # 检查 Git 版本 git --version 查看所有全局配置 git config --global --list 查看特定配置项 # 查看用户名配置 git config --global user.name# 查看邮箱配置 git config --global u…...

自由浮动时间和总浮动时间对比

一、自由浮动时间的定义 在项目进度管理中&#xff0c;自由浮动时间&#xff08;Free Float&#xff09;是指在不推迟项目后续任务最早开始时间的前提下&#xff0c;一个任务能够延迟的时间长度。它是针对单个任务而言的&#xff0c;主要考虑该任务与其紧后任务之间的关系。 …...

2025.05.07-华为机考第二题200分

📌 点击直达笔试专栏 👉《大厂笔试突围》 💻 春秋招笔试突围在线OJ 👉 笔试突围OJ 02. 社区智能安防系统设计 问题描述 随着智慧社区建设的发展,LYA小区需要设计一套高效的安防监控系统。该小区布局可以用一棵二叉树来表示,树的每个节点代表一户居民家庭。 为了…...

分布式架构详解

一、分布式架构的概念与设计目标 1. 基本概念 分布式架构&#xff08;Distributed Architecture&#xff09;是分布式计算技术的应用和工具,指将一个复杂系统拆分为多个独立的组件&#xff08;或服务&#xff09;&#xff0c;并将这些组件部署在不同物理节点&#xff08;服务…...

码蹄集——平方根X、整除幸运数

目录 MT1075 平方根X MT1078 整除幸运数 MT1075 平方根X 知识点&#xff1a; 上取整&#xff1a;ceil&#xff1b;下取整&#xff1a;floor&#xff1b;四舍五入&#xff1a;round 判断是否为完全平方数的方法&#xff1a;利用sqrt函数结果为double&#xff0c;将其结果相乘&a…...

【MATLAB源码-第277期】基于matlab的AF中继系统仿真,AF和直传误码率对比、不同中继位置误码率对比、信道容量、中继功率分配以及终端概率。

操作环境&#xff1a; MATLAB 2022a 1、算法描述 在AF&#xff08;放大转发&#xff09;中继通信系统中&#xff0c;信号的传输质量和效率受到多个因素的影响&#xff0c;理解这些因素对于系统的优化至关重要。AF中继通信的基本架构由发射端、中继节点和接收端组成。发射端负…...

ACE-Step - 20秒生成4分钟完整歌曲,音乐界的Stable Diffusion,支持50系显卡 本地一键整合包下载

ACE-Step 是由ACE Studio与StepFun联合开发的音乐生成模型&#xff0c;被誉为“音乐界的Stable Diffusion”。该模型以其惊人的生成速度和多样化功能引发行业热议&#xff0c;支持19种语言&#xff0c;可在短短20秒内生成一首长达4分钟的完整音乐作品&#xff0c;效率比主流模型…...

007 Linux 开发工具(上)—— vim、解放sudo、gc+

&#x1f984; 个人主页: 小米里的大麦-CSDN博客 &#x1f38f; 所属专栏: Linux_小米里的大麦的博客-CSDN博客 &#x1f381; GitHub主页: 小米里的大麦的 GitHub ⚙️ 操作环境: Visual Studio 2022 文章目录 Linux 开发工具&#xff08;上&#xff09;Linux 编辑器 —— vim…...

React学习路线图-Gemini版

前端开发学习路线图 (针对编程新手&#xff0c;主攻 React 框架) 总原则&#xff1a;先打好地基&#xff0c;再盖楼。 无论学习哪个框架&#xff0c;扎实的 HTML、CSS 和 JavaScript 基础是成功的关键。React 是基于 JavaScript 构建的&#xff0c;所以深入理解 JS 至关重要。…...

注意力(Attention)机制详解(附代码)

Attention机制是深度学习中的一种技术&#xff0c;特别是在自然语言处理&#xff08;NLP&#xff09;和计算机视觉领域中得到了广泛的应用。它的核心思想是模仿人类的注意力机制&#xff0c;即人类在处理信息时会集中注意力在某些关键部分上&#xff0c;而忽略其他不那么重要的…...

国内外Agent产品进展汇总

MCP&#xff08;Model Context Protocol&#xff09;是一个开放标准协议&#xff0c;旨在标准化应用程序向大型语言模型提供上下文信息的方式。通过集成MCP扩展&#xff0c;Agent可以访问和利用各种外部工具和服务&#xff0c;丰富了Agent的功能范围&#xff0c;使其能够执行更…...

AI Workflow

AI Workflow&#xff08;人工智能工作流&#xff09;指的是在构建、部署和管理AI模型与应用时所涉及的一系列步骤和流程。它将数据处理、模型训练、评估、部署及监控等环节有机结合起来&#xff0c;以实现高效、可重复的AI解决方案开发过程。以下是对AI Workflow核心组成部分及…...

MySQL OCP 认证限时免费活动​ 7 月 31 日 前截止!!!

为庆祝 MySQL 数据库发布 30 周年&#xff0c;Oracle 官方推出限时福利&#xff1a;2025 年 4 月 20 日至 7 月 31 日期间&#xff0c;所有人均可免费报考 MySQL OCP&#xff08;Oracle Certified Professional&#xff09;认证考试。该认证验证持证者在 MySQL 数据库管理、优化…...

【无标题】MPC软件

MPC软件是一款先进的多变量预测控制解决方案 专为复杂工业过程优化设计 **核心功能** 实时动态建模 多变量协调控制 滚动时域优化 自适应调整策略 干扰抑制 鲁棒性强 适用于时变系统 **技术优势** 基于模型预测算法 提前计算最优控制序列 处理输入输出约束 保障系…...

【EasyPan】loadDataList方法及checkRootFilePid方法解析

【EasyPan】项目常见问题解答&#xff08;自用&持续更新中…&#xff09;汇总版 一、loadDataList方法概览 /*** 文件列表加载接口* param session HTTP会话对象* param shareId 必须参数&#xff0c;分享ID&#xff08;使用VerifyParam进行非空校验&#xff09;* param …...

Java程序题案例分析

目录 一、基础语法 1. 类与对象 2. 接口与抽象类 二、面向对象语法 1. 继承与多态 2. 四种访问修饰符 三、设计模式相关语法 一、策略模式&#xff08;接口回调实现&#xff09; 1. 完整实现与解析 二、工厂模式&#xff08;静态工厂方法实现&#xff09; 1. 完整实…...

【Lanqiao】数位翻转

题目&#xff1a; 思路&#xff1a; 写蓝桥不能不写dp&#xff0c;就像.... 题目数据给的不大&#xff0c;所以我们可以考虑一种 n*m 的做法&#xff0c;那么对于这种题目可以想到的是用dp来写&#xff0c;但是如何构造转移方程与状态是个难事 由于这题对于任意一个数我们有两…...

基于QT(C++)实现(图形界面)校园导览系统

校园导览系统 一、任务描述 大学校园充满着忙忙碌碌的学生和老师们&#xff0c;但是有时候用户宝贵的时间会被复杂的道路和愈来愈多的建筑物的阻碍而浪费&#xff0c;为了不让同学们在自己的目的地的寻路过程中花费更多的时间&#xff0c;我们着手开发这样一款校园导览系统。…...

【C/C++】虚函数

&#x1f4d8; C 虚函数详解&#xff08;Virtual Function&#xff09; &#x1f4cc; 什么是虚函数&#xff1f; 虚函数&#xff08;Virtual Function&#xff09; 是 C 中实现运行时多态&#xff08;Runtime Polymorphism&#xff09; 的核心机制。 它允许派生类 重写&…...

no main manifest attribute, in xxx.jar

1、问题&#xff1a; Spring Boot项目在idea中可以正常运行&#xff0c;但是运行Spring Boot生成的jar包&#xff0c;报错&#xff1a; 1、no main manifest attribute, in xxx.jar 2、xxx.jar中没有主清单属性 2、解决办法&#xff1a; 删除pom.xml中<configuration&g…...

使用 AI 如何高效解析视频内容?生成思维导图或分时段概括总结

一、前言 AI 发展的如此迅速&#xff0c;有人想通过 AI 提效对视频的解析&#xff0c;怎么做呢&#xff1f; 豆包里面有 AI 视频总结的功能&#xff0c;可以解析bilibili网站上部分视频&#xff0c;如下图所示&#xff1a; 但有的视频解析时提示&#xff1a; 所以呢&#x…...

比较入站和出站防火墙规则

组织需要仔细配置防火墙规则&#xff0c;监控网络的传入和传出流量&#xff0c;从而最大限度降低遭受攻击的风险。在有效管理入站和出站防火墙规则前&#xff0c;了解入站与出站流量的区别至关重要。 一、什么是入站流量&#xff1f; 入站流量指的是并非源自网络内部&#xf…...

开放式耳机什么品牌的好用?性价比高的开放式耳机品牌推荐一下

这几年蓝牙耳机发展得很快&#xff0c;从最早的入耳式&#xff0c;到现在流行的开放式&#xff0c;选择越来越多。我自己是比较偏向佩戴舒适的类型&#xff0c;用过开放式之后就回不去了。它不堵耳、不压迫&#xff0c;戴着轻松不累&#xff0c;对我这种耳朵容易不适的人来说太…...

WPF之高级绑定技术

文章目录 引言多重绑定&#xff08;MultiBinding&#xff09;基本概念实现自定义IMultiValueConverterMultiBinding在XAML中的应用示例使用StringFormat简化MultiBinding 优先级绑定&#xff08;PriorityBinding&#xff09;基本概念PriorityBinding示例实现PriorityBinding的后…...

k8s高可用集群,自动化更新证书脚本

#!/bin/bash # 切换到证书目录 cd /etc/kubernetes/pki || exit # 备份原有证书&#xff08;重要&#xff01;&#xff09; sudo cp -r apiserver.crt apiserver.key \ apiserver-etcd-client.crt apiserver-etcd-client.key \ apiserver-kubelet-client…...

【Python 函数】

Python 中的函数&#xff08;Function&#xff09;是可重复使用的代码块&#xff0c;用于封装特定功能并提高代码复用性。以下是函数的核心知识点&#xff1a; 一、基础语法 1. 定义函数 def greet(name):"""打印问候语""" # 文档字符串&…...

Filecoin矿工资金管理指南:使用lotus-shed actor withdraw工具

Filecoin矿工资金管理指南&#xff1a;使用lotus-shed actor withdraw工具 引言lotus-shed actor withdraw命令概述命令语法参数选项详解常见使用场景1. 提取全部可用余额2. 提取指定数量的FIL3. 通过受益人地址发送交易 最佳实践资金安全管理操作流程优化 常见问题与解决方案提…...

AI辅助DevOps与自动化测试:重构软件工程效率边界

随着AI技术渗透至软件开发生命周期&#xff0c;DevOps与自动化测试领域正经历颠覆性变革。本文系统性解析AI在需求分析、测试用例生成、部署决策、异常检测等环节的技术实现路径&#xff0c;结合微软Azure DevOps、Tesla自动驾驶测试等典型场景&#xff0c;探讨AI如何突破传统效…...

css内容省略——text-overflow: ellipsis

title: css内容省略 date: 2025-05-07 19:41:17 tags: css text-overflow: ellipsis text-overflow: ellipsis用于在文本溢出容器时显示省略号(…) 1.单行省略 <!DOCTYPE html> <html lang"zh-CN"> <head><meta charset"UTF-8"&g…...

nginx性能优化与深度监控

一、性能调优方向 1. 系统层面优化 内核参数调整 TCP队列与连接管理&#xff1a; net.core.somaxconn&#xff08;最大连接队列长度&#xff0c;建议设为65535&#xff09;net.ipv4.tcp_max_syn_backlog&#xff08;SYN队列长度&#xff0c;建议65535&#xff09;net.ipv4.tc…...

leetcode 70.爬楼梯(c++详细最全解法+补充知识)

目录 题目 解答过程 补充哈希表知识 哈希表基本特性 常用成员函数 基本用法 实现代码 1.递归 2.循环遍历 3.哈希表 题目 假设你正在爬楼梯。需要 n 阶你才能到达楼顶。 每次你可以爬 1 或 2 个台阶。你有多少种不同的方法可以爬到楼顶呢&#xff1f; 示例 1&#…...

护照阅读器简介

护照阅读器简介 护照阅读器&#xff08;Passport Reader&#xff09;是一种专用设备&#xff0c;用于快速、准确地读取护照、身份证、签证等旅行证件的机读区&#xff08;MRZ&#xff09;和芯片&#xff08;ePassport&#xff09;信息&#xff0c;广泛应用于出入境管理、机场安…...

切片和边缘计算技术分析报告

切片和边缘计算技术分析报告 一、引言 随着 5G 通信技术的快速发展&#xff0c;网络切片和边缘计算技术逐渐成为通信领域的热点研究方向。网络切片技术通过将物理网络划分为多个逻辑上的虚拟网络&#xff0c;以满足不同业务场景对网络性能的差异化需求。边缘计算则将计算、存…...

vue3笔记(自存)

1. Vue3简介 2020年9月18日&#xff0c;Vue.js发布版3.0版本&#xff0c;代号&#xff1a;One Piece&#xff08;n 经历了&#xff1a;4800次提交、40个RFC、600次PR、300贡献者 官方发版地址&#xff1a;Release v3.0.0 One Piece vuejs/core 截止2023年10月&#xff0c;最…...

多线服务器具有什么优势

在当今数字化飞速发展的时代&#xff0c;多线服务器宛如一位低调的幕后英雄&#xff0c;默默为我们的网络世界提供着强大的支持。那么&#xff0c;多线服务器到底具有哪些令人瞩目的优势呢 首先&#xff0c;多线服务器的最大优势之一就是网络访问的高速与稳定。想象一下&#x…...

Azure OpenAI 聊天功能全解析:Java 开发者指南

Azure OpenAI 聊天功能全解析&#xff1a;Java 开发者指南 前言 在当今人工智能飞速发展的时代&#xff0c;AI 驱动的文本生成技术正深刻改变着众多应用场景。Azure OpenAI 作为这一领域的重要参与者&#xff0c;由 ChatGPT 提供支持&#xff0c;不仅具备传统 OpenAI 的功能&…...

【情感关系】健全自我

一些看到后深有感触的文字 请大家无论如何也不要相信这种&#xff1a;“童年/原生家庭经历决定人生走向”的论调。 过去可以影响我们但是无法主宰我们&#xff0c;人是有主观能动意识的&#xff0c;认识自己的问题就是改变人生轨迹的第一步。 后来我们会发现&#xff0c;对于…...

SLAM:单应矩阵,本质矩阵,基本矩阵详解和对应的c++实现

单应矩阵(Homography Matrix) 单应矩阵(Homography Matrix)是计算机视觉中描述同一平面在不同视角下投影变换的核心工具,广泛应用于图像校正、拼接、虚拟广告牌替换等场景。以下从原理、求解方法和C++实现三方面展开详解: 一、单应矩阵的数学原理 定义与作用 单应矩阵是…...