当前位置: 首页 > news >正文

【NLP修炼系列之Bert】Bert多分类多标签文本分类实战(附源码下载)

引言

今天我们就要用Bert做项目实战,实现文本多分类任务和我在实际公司业务中的多标签文本分类任务。通过本篇文章,可以让想实际入手Bert的NLP学习者迅速上手Bert实战项目。

1 项目介绍

本文是Bert文本多分类和多标签文本分类实战,其中多分类项目是借鉴github中被引用次数比较多的优秀项目,多标签文本分类是我在公司业务中实际用到的线上项目,今天把两个项目都介绍给大家,其实Bert做文本分类项目都大差不差,两个项目的项目结构也都差不多,这样更容易被初学者迅速入手和理解。

1.1 数据集介绍

文本多分类任务用到的数据集是THUCNews数据集中抽取20w新闻标题,文本长度在20-30之间,一共10个类别,每个类别2万条。类别:财经、房产、股票、教育、科技、社会、时政、体育、游戏、娱乐。数据集划分:训练集18w(每个类别18000条),验证集和测试集各1w(每个类别1000条)。

图片

多标签文本分类用到的数据集是我们自己公司的业务数据不方便提供,但是网上也有很多开源的多标签文本分类数据集,只需要在数据读取方式上稍微做处理即可,我们公司数据用到的是对话形式的json格式,做的落地应用是意图识别任务。

1.2 项目结构

图片

(1)bert-base-chinese:存放Bert预训练模型文件pytorch_model.bin ,config.json, vocab.txt 文件比较大,可以自己在huggingface官网下载。

(2)datas:里面data存放数据集,log存放模型训练日志,saved_dict存放训练保存好的模型。

(3)models:存放Bert模型及其超参数定义config类,其中还有Bert+CNN等混合模型文件。

(4)run.py:程序入口,运行直接训练模型。

(5)train_eval.py:模型训练,验证,测试部门代码。

(6)utils:定义数据预处理和加载的模块。

1.3 需要环境包

项目里面我生成了requirements.txt 文件,运行项目之前需要先安装环境包,python版本3.8。

pip install -r requirements.txt

图片

2 项目流程

run.py是完整项目的入口,只需要运行run.py就可以跑通整个项目了。

2.1 项目参数

整体项目参数用到了argparse工具,配置相关参数,比如设置模型模块名称。

# 声明argparse对象 可附加说明
parser = argparse.ArgumentParser(description='Chinese Text Classification')
# 模型是必须设置的参数(required=True) 类型是字符串
parser.add_argument('--model', type=str, default="bert", help='choose a model: bert, bert_CNN,'                                                              'bert_DPCNN,bert_RNN,bert_RCNN,ERNIE')# 解析参数
args = parser.parse_args()

2.2 项目流程

if __name__ == '__main__':dataset = 'datas'  # 数据集路径    model_name = args.model  # bert 设置的模型名称    x = import_module('models.' + model_name)  # 根据所选模型名字在models包下 获取相应模块    config = x.Config(dataset)  # 模型文件中的配置类    # 设置随机种子 确保每次运行的条件(模型参数初始化、数据集的切分或打乱等)是一样的    np.random.seed(1)    torch.manual_seed(1)    torch.cuda.manual_seed_all(1)   torch.backends.cudnn.deterministic = True  # 保证每次结果一样    start_time = time.time()    print("Loading data...")    # 构建训练集、验证集、测试集    train_data, dev_data, test_data = build_dataset(config)    # 构建训练集、验证集、测试集迭代器    train_iter = build_iterator(train_data, config)    dev_iter = build_iterator(dev_data, config)    test_iter = build_iterator(test_data, config)    time_dif = get_time_dif(start_time)    print("Time usage:", time_dif)    # train    model = x.Model(config).to(config.device)  # 构建模型对象    train(config, model, train_iter, dev_iter, test_iter)  # 训练

3 数据处理

数据预处理阶段主要两部分,构建数据集build_dataset()和构建数据迭代器build_iterator()。这里面我们自定义数据迭代器,之所以要构建数据迭代器,是因为当数据量比较大时,无法一次性把数据全部加载到内存或显存中,此时我们可以使用数据生成器。训练时,不是把全部数据都加载到内存或显存中,而是用到哪一部分数据(某个batch),就用数据生成器生成该部分数据,只把这部分数据加载到内存或显存中,避免溢出。

3.1 构建数据集

PAD, CLS = '[PAD]', '[CLS]'  # padding符号, bert中综合信息符号def build_dataset(config):def load_dataset(path, pad_size=32):      contents = []        with open(path, 'r', encoding='UTF-8') as f:      for line in tqdm(f):#遍历每一行              lin = line.strip()#去掉首尾空白符                if not lin:#遇到空行 跳过                 continue                content, label = lin.split('\t')#text  label;每一行以\t为切分,拿到文本                token = config.tokenizer.tokenize(content) #分字(汉语 character-level) bert内置的tokenizer                token = [CLS] + token #头部加入 [CLS] token                seq_len = len(token) #文本实际长度(填充或截断之前)                mask = []  #区分填充部分和非填充部分                token_ids = config.tokenizer.convert_tokens_to_ids(token) #把tokenizer转换为索引(基于下载的词表文件)     if pad_size:#长截短填                    if len(token) < pad_size: #序列长度小于 填充长度                    mask = [1] * len(token_ids) + [0] * (pad_size - len(token))#mask 填充部分对应0 非填充部分为1                        token_ids += ([0] * (pad_size - len(token))) #用0作填充                   else: #此时没有填充 序列长度大于填充长度                    mask = [1] * pad_size  #全部都是非填充                        token_ids = token_ids[:pad_size] #截断                        seq_len = pad_size #实际长度为填充长度                contents.append((token_ids, int(label), seq_len, mask)) #[([...],label,seq_len,[...])]        return contents     # 分别对训练集、验证集、测试集进行处理    train = load_dataset(config.train_path, config.pad_size)    dev = load_dataset(config.dev_path, config.pad_size)    test = load_dataset(config.test_path, config.pad_size)    # 返回预处理好的训练集、验证集、测试集    return train, dev, test

3.2 构建数据迭代器

class DatasetIterater(object):#自定义数据集迭代器def __init__(self, batches, batch_size, device):     self.batch_size = batch_size        self.batches = batches#数据集        self.n_batches = len(batches) // batch_size #得到batch数量        self.residue = False  # 记录batch数量是否为整数        if len(batches) % self.n_batches != 0:#不能整除         self.residue = True        self.index = 0        self.device = device     def _to_tensor(self, datas):        # 转换为tensor 并 to(device)        x = torch.LongTensor([_[0] for _ in datas]).to(self.device) #输入序列        y = torch.LongTensor([_[1] for _ in datas]).to(self.device) #标签    # seq_len为文本的实际长度(不包含填充的长度) 转换为tensor 并 to(device)        seq_len = torch.LongTensor([_[2] for _ in datas]).to(self.device)        #mask        mask = torch.LongTensor([_[3] for _ in datas]).to(self.device)        return (x, seq_len, mask), y     def __next__(self):     if self.residue and self.index == self.n_batches:#当数据集大小 不整除 batch_size时,构建最后一个batch        batches = self.batches[self.index * self.batch_size: len(self.batches)]            self.index += 1            batches = self._to_tensor(batches)#把最后一个batch转换为tensor 并 to(device)            return batches         elif self.index > self.n_batches:         self.index = 0            raise StopIteration        else:#构建每一个batch        batches = self.batches[self.index * self.batch_size: (self.index + 1) * self.batch_size]            self.index += 1            batches = self._to_tensor(batches)#把当前batch转换为tensor 并 to(device)            return batches     def __iter__(self):     return self   def __len__(self):    if self.residue:       return self.n_batches + 1 #不整除 batch数加1        else:      return self.n_batches  def build_iterator(dataset, config):#构建数据集迭代器    iter = DatasetIterater(dataset, config.batch_size, config.device)    return iter

4 模型和配置定义

模型用到预训练Bert模型,在对输入经过encoder编码后,取[CLS] token(输入序列最前面需要添加特定的[CLS] token表示序列开始)对应的最后一层编码向量(隐状态),再接全连接层进行分类,以及预训练语言模型和深度学习模型的结合,如Bert + CNN/RNN/RCNN/DPCNN,即取Bert最后一层所有的编码向量作为后续深度学习模型的输入,再进行分类。

4.1 Config配置类

这里面只展示出Bert + 全连接层,目前在我公司的业务数据集上效果最好的。

class Config(object):"""配置参数"""    def __init__(self, dataset):    self.model_name = 'bert'        #训练集、验证集、测试集路径        self.train_path = dataset + '/data/train.txt'                                        self.dev_path = dataset + '/data/dev.txt'                                            self.test_path = dataset + '/data/test.txt'         #类别名单        self.class_list = [x.strip() for x in open(            dataset + '/data/class.txt').readlines()]                  #存储模型的训练结果        self.save_path = dataset + '/saved_dict/' + self.model_name + '.ckpt'                self.device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')   # 设备     self.require_improvement = 1000                                 # 若超过1000batch效果还没提升,则提前结束训练        self.num_classes = len(self.class_list)                         # 类别数        self.num_epochs = 3                                             # epoch数        self.batch_size = 128                                           # mini-batch大小        self.pad_size = 32                                              # 每句话处理成的长度(短填长切)        self.learning_rate = 5e-5                                       # 学习率        #预训练模型相关文件(模型文件.bin、配置文件.json、词表文件vocab.txt)存储路径        self.bert_path ='./bert-base-chinese'        #序列切分工具        self.tokenizer = BertTokenizer.from_pretrained(self.bert_path)        #隐藏单元数        self.hidden_size = 768

4.2 模型定义类

class Model(nn.Module):def __init__(self, config):     super(Model, self).__init__()        self.bert = BertModel.from_pretrained(config.bert_path)        for param in self.bert.parameters():        param.requires_grad = True        self.fc = nn.Linear(config.hidden_size, config.num_classes)    def forward(self, x):     context = x[0]  # 输入的句子        mask = x[2]  # 对padding部分进行mask,和句子一个size,padding部分用0表示,如:[1, 1, 1, 1, 0, 0]        # _, pooled = self.bert(context, attention_mask=mask, output_all_encoded_layers=False)        _, pooled = self.bert(context, attention_mask=mask, token_type_ids=None, return_dict=False)        out = self.fc(pooled)        return out

5 训练,验证和测试

5.1 训练模块

def train(config, model, train_iter, dev_iter, test_iter):  start_time = time.time()    model.train()    param_optimizer = list(model.named_parameters())    no_decay = ['bias', 'LayerNorm.bias', 'LayerNorm.weight']    optimizer_grouped_parameters = [       {'params': [p for n, p in param_optimizer if not any(nd in n for nd in no_decay)], 'weight_decay': 0.01},        {'params': [p for n, p in param_optimizer if any(nd in n for nd in no_decay)], 'weight_decay': 0.0}]    optimizer = AdamW(optimizer_grouped_parameters, lr=config.learning_rate) total_step = len(train_iter) * config.num_epochs    num_warmup_steps = round(total_step * 0.1)    scheduler = get_linear_schedule_with_warmup(optimizer, num_warmup_steps=num_warmup_steps,                                                num_training_steps=total_step)     total_batch = 0  # 记录进行到多少batch    dev_best_loss = float('inf')    last_improve = 0  # 记录上次验证集loss下降的batch数    flag = False  # 记录是否很久没有效果提升    model.train()  for epoch in range(config.num_epochs):      print('Epoch [{}/{}]'.format(epoch + 1, config.num_epochs))        for i, (trains, labels) in enumerate(train_iter):            outputs = model(trains)            model.zero_grad()            loss = F.cross_entropy(outputs, labels)            loss.backward()            optimizer.step()            scheduler.step()            if total_batch % 100 == 0:                # 每多少轮输出在训练集和验证集上的效果                true = labels.data.cpu()                predic = torch.max(outputs.data, 1)[1].cpu()                train_acc = metrics.accuracy_score(true, predic)                dev_acc, dev_loss = evaluate(config, model, dev_iter)                if dev_loss < dev_best_loss:                  dev_best_loss = dev_loss                    torch.save(model.state_dict(), config.save_path)                    improve = '*'                    last_improve = total_batch                else:                  improve = ''                time_dif = get_time_dif(start_time)                msg = 'Iter: {0:>6},  Train Loss: {1:>5.2},  Train Acc: {2:>6.2%},  Val Loss: {3:>5.2},  Val Acc: {4:>6.2%},  Time: {5} {6}'                logger.log(msg.format(total_batch, loss.item(), train_acc, dev_loss, dev_acc, time_dif, improve))                # print(msg.format(total_batch, loss.item(), train_acc, dev_loss, dev_acc, time_dif, improve))                model.train()            total_batch += 1            if total_batch - last_improve > config.require_improvement:     # 验证集loss超过1000batch没下降,结束训练                print("No optimization for a long time, auto-stopping...")                flag = True                break        if flag:          break    test(config, model, test_iter)

5.2 验证模块

def evaluate(config, model, data_iter, test=False):model.eval()#测试模式    loss_total = 0    predict_all = np.array([], dtype=int)#存储验证集所有batch的预测结果    labels_all = np.array([], dtype=int)#存储验证集所有batch的真实标签    with torch.no_grad():     for texts, labels in data_iter:        outputs = model(texts)            loss = F.cross_entropy(outputs, labels)            loss_total += loss            labels = labels.data.cpu().numpy()            predic = torch.max(outputs.data, 1)[1].cpu().numpy()            labels_all = np.append(labels_all, labels)            predict_all = np.append(predict_all, predic)     acc = metrics.accuracy_score(labels_all, predict_all)#计算验证集准确率    
if test:#如果是测试集的话 计算一下分类报告     report = metrics.classification_report(labels_all, predict_all, target_names=config.class_list, digits=4)        confusion = metrics.confusion_matrix(labels_all, predict_all)#计算混淆矩阵        return acc, loss_total / len(data_iter), report, confusion    
return acc, loss_total / len(data_iter)#返回准确率和每个batch的平均损失

5.3 测试模块

def test(config, model, test_iter):# test    model.load_state_dict(torch.load(config.save_path))#加载使验证集损失最小的参数    model.eval()#测试模式    start_time = time.time()    test_acc, test_loss, test_report, test_confusion = evaluate(config, model, test_iter, test=True)#计算测试集准确率,每个batch的平均损失 分类报告、混淆矩阵    msg = 'Test Loss: {0:>5.2},  Test Acc: {1:>6.2%}'    print(msg.format(test_loss, test_acc))    print("Precision, Recall and F1-Score...")    print(test_report)    print("Confusion Matrix...")    print(test_confusion)    time_dif = get_time_dif(start_time)    print("Time usage:", time_dif)

6 训练结果

实验超参数如下:

num_epochs = 3 batch_size = 128 pad_size = 32 learning_rate = 5e-5

在这里插入图片描述

这里需要注意的是使用Bert预训练模型接下游任务时,一定要在fine-tune情况下进行,即在定义模型类是需要设置:param.requires_grad = True(表示在微调情况下)

图片

通过实验发现在非fine-tune情况下,实验结果非常差。

图片

7 总结

本文主要介绍了使用Bert预训练模型做文本分类任务,在实际的公司业务中大多数情况下需要用到多标签的文本分类任务,我在以上的多分类任务的基础上实现了一版多标签文本分类任务,详细过程可以看我提供的项目代码,当然我在文章中展示的模型是原生的Bert+全连接层输出,提供的代码部分还有Bert+CNN/RNN/RCNN/DPCNN/等混合模型结构,后面我打算分别详细的带大家各个网络结构的原理和实战。

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

相关文章:

【NLP修炼系列之Bert】Bert多分类多标签文本分类实战(附源码下载)

引言 今天我们就要用Bert做项目实战&#xff0c;实现文本多分类任务和我在实际公司业务中的多标签文本分类任务。通过本篇文章&#xff0c;可以让想实际入手Bert的NLP学习者迅速上手Bert实战项目。 1 项目介绍 本文是Bert文本多分类和多标签文本分类实战&#xff0c;其中多分…...

OpenSSL 自建CA 以及颁发证书(网站部署https双向认证)

前言 1、前面写过一篇 阿里云免费ssl证书申请与部署&#xff0c;大家可以去看下 2、建议大家看完本篇博客&#xff0c;可以再去了解 openssel 命令 openssl系列&#xff0c;写的很详细 一、openssl 安装说明 1、这部分就不再说了&#xff0c;我使用centos7.9&#xff0c;是自…...

YOLOv11改进,YOLOv11添加U-Netv2分割网络中SDI信息融合模块,助力小目标检测

摘要 理论介绍 SDI模块的架构: 平滑卷积(SmoothConv):用于平滑特征图,帮助减少噪声并使得特征更加稳定。Hadamard积:用于在特征图中进行逐元素相乘(点乘),以加强语义信息和细节信息的融合。通道注意力(ChannelAttention):利用通道注意力机制来自动关注重要的特征通…...

flex布局 flex-end为什么overflow无法滚动及解决方法

flex-end为什么overflow无法滚动及解决方法 在使用Flexbox布局时&#xff0c;我们经常使用justify-content和align-items属性来定位子元素。其中&#xff0c;align-items属性用于控制子元素在交叉轴上的位置&#xff0c;例如顶部对齐、底部对齐或居中对齐等。当我们将align-it…...

从ground_truth mask中获取图像的轮廓图

引言 在图像取证领域&#xff0c;主要分为检测和定位两个方面。检测就是判断一张图片是否为伪造图&#xff0c;定位与传统意义上的语义分割任务相近&#xff0c;就是定位伪造像素的区域。如果单纯使用语义分割网络训练&#xff0c;只能获得次优解&#xff0c;而像多任务学习那样…...

Java项目实战II基于微信小程序的旅游社交平台(开发文档+数据库+源码)

目录 一、前言 二、技术介绍 三、系统实现 四、核心代码 五、源码获取 全栈码农以及毕业设计实战开发&#xff0c;CSDN平台Java领域新星创作者&#xff0c;专注于大学生项目实战开发、讲解和毕业答疑辅导。 一、前言 随着移动互联网的迅猛发展&#xff0c;旅游已经成为人…...

开源即时通讯与闭源即时通讯该怎么选择,其优势是什么?

在选择即时通讯软件时&#xff0c;应根据企业的经营领域来选择适合自身需求的开源或闭源方案。不同领域对开源和闭源即时通讯的理念存在差异&#xff0c;因此总结两个点简要分析这两种选择&#xff0c;有助于做出更明智的决策。 一、开源与闭源的根本区别在于软件的源代码是否…...

【计算机网络】实验15:VLAN间通信的实现方法“单臂路由”

实验15 VLAN间通信的实现方法“单臂路由” 一、实验目的 加深对VLAN间通信的实现方法“单臂路由”的理解。 二、实验环境 Cisco Packet Tracer模拟器 三、实验过程 1.构建网络拓扑&#xff0c;并配置好主机的IP地址、子网掩码、默认网关&#xff0c;如图1&#xff0c;2所…...

数据库学习记录04

DDL【数据定义语言】 MySQL命名规则 数据库名不得超过30个字符&#xff0c;变量名限制为29个必须只能包含A-Z,a-z,0-9,_共63个字符不能在对象名的字符间留空格必须不能和用户定义的其他对象重名必须保证你的字段没有和保留字、数据库系统或常用方法冲突保持字段名和类型的一致…...

PDF文件打开之后不能打印,怎么解决?

正常的PDF文件是可以打印的&#xff0c;如果PDF文件打开之后发现文件不能打印&#xff0c;我们需要先查看一下自己的打印机是否能够正常运行&#xff0c;如果打印机是正常的&#xff0c;我们再查看一下&#xff0c;文件中的打印功能按钮是否是灰色的状态。 如果PDF中的大多数功…...

A* 算法 是什么?

A*&#xff08;A-star&#xff09;算法是一种启发式搜索算法&#xff0c;用于在图或网格中找到从起点到目标的最短路径。它被广泛用于路径规划问题&#xff0c;例如导航、游戏开发中的角色移动&#xff0c;以及机器人路径规划。 1. A 算法的基本概念* A* 算法结合了两种经典搜…...

ORM框架详解:为什么不直接写SQL?

想象一下&#xff0c;你正在开发一个小型的在线书店应用。你需要存储书籍信息、用户数据和订单记录。作为一个初学者&#xff0c;你可能会想&#xff1a;“我已经学会了SQL&#xff0c;为什么还要使用ORM框架呢&#xff1f;直接写SQL语句不是更简单、更直接吗&#xff1f;” 如…...

厘米级高精度RTK手持终端北斗卫星定位手持pda

RTK是一种测量技术叫“载波相位差分技术”&#xff0c;是实时处理两个测量站载波相位观测量的差分方法&#xff0c;将基准站采集的载波相位发给用户接收机&#xff0c;进行求差解算坐标&#xff0c;以此得到高精度坐标。随着技术的不断革新&#xff0c;GPS接收机也由原来只能用…...

Kafka-Connect源码分析

一、上下文 《Kafka-Connect自带示例》中我们尝试了零配置启动producer和consumer去生产和消费数据&#xff0c;那么它内部是如何实现的呢&#xff1f;下面我们从源码来揭开它神秘的面纱。 二、入口类有哪些&#xff1f; 从启动脚本&#xff08;connect-standalone.sh&#…...

【STM32 Modbus编程】-作为主设备读取保持/输入寄存器

作为主设备读取保持/输入寄存器 文章目录 作为主设备读取保持/输入寄存器1、硬件准备与连接1.1 RS485模块介绍1.2 硬件配置与接线1.3 软件准备2、读保持寄存器2.1 主设备发送请求2.2 从设备响应请求2.3 主机接收数据3、读输入寄存器4、结果4.1 保持寄存器4.2 输入寄存器在前面的…...

Kubesphere上搭建redis集群

Kubesphere上搭建redis集群 版本&#xff1a;redis:6.2.3 1&#xff09;挂载配置 redis.conf&#xff1a; cluster-enabled yes cluster-config-file nodes.conf cluster-node-timeout 5000 cluster-require-full-coverage no cluster-migration-barrier 1 appendonly yes …...

learn-(Uni-app)跨平台应用的框架

使用 Vue.js 开发所有前端应用的框架&#xff0c;开发者编写一份代码&#xff0c;可发布到iOS、Android、Web&#xff08;包括微信小程序、百度小程序、支付宝小程序、字节跳动小程序、H5、App等&#xff09;等多个平台。 跨平台&#xff1a;Uni-app 支持编译到iOS、Android、W…...

target_compile_definitions

这个接口给目标定义的宏&#xff0c;不能像C中定义的宏一样&#xff0c;尝试利用宏进行替换&#xff1a; cmake_minimum_required(VERSION 3.8) project(compile_definitions_pro)add_executable(main_exec src/main.cpp)set(SYSTEM_NAME "") if(CMAKE_SYSTEM_NAME S…...

浏览器同源策略、跨域、跨域请求,服务器处理没、跨域解决方案

目录 什么是同源策略什么是跨域发生跨域时&#xff0c;服务器有没有接到请求并处理响应&#xff1a;&#xff08;两种情况&#xff09; 如何解决跨域 什么是同源策略 概念&#xff1a; 同源策略是浏览器的一种安全机制&#xff0c;用于防止恶意网站对用户的敏感数据进行未经授…...

深入理解网络安全等级保护:保障信息安全的关键策略与实践

随着信息技术的飞速发展&#xff0c;网络安全问题日益凸显。为了应对这一挑战&#xff0c;网络安全等级保护制度应运而生&#xff0c;旨在确保不同等级的信息和信息系统的安全。本文将探讨网络安全等级保护的基本概念、重要性及其实践方法。 一、信息安全等级保护的基本概念 1…...

MySQL

InnoDB 引擎底层存储和缓存原理 到目前为止&#xff0c;MySQL 对于我们来说还是一个黑盒&#xff0c;我们只负责使用客户端发 送请求并等待服务器返回结果&#xff0c;表中的数据到底存到了哪里&#xff1f;以什么格式存放的&#xff1f; MySQL 是以什么方式来访问的这些数据&…...

新书速览|循序渐进Node.js企业级开发实践

《循序渐进Node.js企业级开发实践》 1 本书内容 《循序渐进Node.js企业级开发实践》结合作者多年一线开发实践&#xff0c;系统地介绍了Node.js技术栈及其在企业级开发中的应用。全书共分5部分&#xff0c;第1部分基础知识&#xff08;第1&#xff5e;3章&#xff09;&#xf…...

2024三掌柜赠书活动第三十五期:Redis 应用实例

目录 前言 Redis操作都会&#xff0c;却不知道怎么用&#xff1f; 关于《Redis 应用实例》 编辑推荐 内容简介 作者简介 图书目录 《Redis 应用实例》全书速览 拓展&#xff1a;Redis使用场景 实例1&#xff1a;缓存应用 场景描述 实现方法 具体代码示例 实例2&a…...

Android 第三方框架:RxJava:源码分析:观察者模式

文章目录 观察者模式RxJava中的观察者模式总结 ​​​​​​​​​​​​​​观察者模式​​​​​​​ RxJava中的观察者模式 以Observable、ObservableOnSubscribe、Observer为例 Observable是被观察者 负责发射事件或数据 Observer是观察器 负责对从被观察者中获取的数…...

开源模型应用落地-安全合规篇-用户输入价值观判断(四)

一、前言 在深度合规功能中,对用户输入内容的价值观判断具有重要意义。这一功能不仅仅是对信息合法性和合规性的简单审核,更是对信息背后隐含的伦理道德和社会责任的深刻洞察。通过对价值观的判断,系统能够识别可能引发不当影响或冲突的内容,从而为用户提供更安全、更和谐的…...

【js逆向专题】13.jsvmp补环境篇一

目录 一.了解jsvmp技术1. js虚拟机保护方案2.jsvmp实现原理3. 模拟jsvmp执行过程 二.环境检测1. 什么是环境检测2.案例讲解 三. 项目实战1. 案例11.逆向目标2. 项目分析1.补第一个referrer2. 调试技巧13. 调试技巧24. 补充sign5. 补 length6. 参数长短补充 3. 逆向结果 2. 案例…...

Java---每日小题

题目1-极大极小游戏 给你一个下标从 0 开始的整数数组 nums &#xff0c;其长度是 2 的幂。 对 nums 执行下述算法&#xff1a; 设 n 等于 nums 的长度&#xff0c;如果 n 1 &#xff0c;终止 算法过程。否则&#xff0c;创建 一个新的整数数组 newNums &#xff0c;新数组长度…...

leetcode 23. 合并 K 个升序链表

给你一个链表数组&#xff0c;每个链表都已经按升序排列。 输入&#xff1a;lists [[1,4,5],[1,3,4],[2,6]] 输出&#xff1a;[1,1,2,3,4,4,5,6] 解释&#xff1a;链表数组如下&#xff1a; [1->4->5,1->3->4,2->6 ] 将它们合并到一个有序链表中得到。 1->…...

Windows 小记 6 -- 为什么我的全局消息钩子卸载不掉?

Hook dll 在其消息循环中被卸载。强制它们进入消息循环有助于卸载它们。在 UnhookWindowsHookEx 之后添加此代码以强制唤醒所有消息循环&#xff1a; DWORD dwResult; SendMessageTimeout(HWND_BROADCAST, WM_NULL, 0, 0, SMTO_ABORTIFHUNG|SMTO_NOTIMEOUTIFNOTHUNG, 1000, &a…...

Python+onlyoffice 实现在线word编辑

onlyoffice部署 version: "3" services:onlyoffice:image: onlyoffice/documentserver:7.5.1container_name: onlyofficerestart: alwaysenvironment:- JWT_ENABLEDfalse#- USE_UNAUTHORIZED_STORAGEtrue#- ONLYOFFICE_HTTPS_HSTS_ENABLEDfalseports:- "8080:8…...

LC低通滤波器Bode图分析(传递函数零极点)

LC低通滤波器 我们使得L4.7uH&#xff0c;C220uF&#xff1b;电感L的阻抗为Xl&#xff1b;电容C的阻抗为Xc&#xff1b; 传递函数 H ( s ) u o u i X C X C X L 1 s C 1 s C s L 1 1 s 2 L C &#xff08;其中 s j ω &#xff09; H(s)\frac{u_{o} }{u_{i} } \frac{…...

【机器学习】机器学习的基本分类-无监督学习(Unsupervised Learning)

无监督学习&#xff08;Unsupervised Learning&#xff09; 无监督学习是一种机器学习方法&#xff0c;主要用于没有标签的数据集。其目标是从数据中挖掘出潜在的结构和模式。常见的无监督学习任务包括 聚类、降维、密度估计 和 异常检测。 1. 无监督学习的核心目标 1.1 聚类…...

六、docker compose单机容器编排工具

六、docker compose单机容器编排工具 6.1 compose简介 Compose是一个用于定义和运行多容器Docker应用程序的工具。您可以使用Compose文件来配置应用程序的服务&#xff0c;然后使用单个命令从配置中创建并启动所有服务。compose的配置文件示例如下 compose的github网址&#…...

Python3 operator 模块

Python2.x 版本中&#xff0c;使用 cmp() 函数来比较两个列表、数字或字符串等的大小关系。 Python 3.X 的版本中已经没有 cmp() 函数&#xff0c;如果你需要实现比较功能&#xff0c;需要引入 operator 模块&#xff0c;适合任何对象&#xff0c;包含的方法有&#xff1a; o…...

沪合共融 “汽”势如虹 | 昂辉科技参加合肥上海新能源汽车产业融合对接会

为积极响应制造业重点产业链高质量发展行动号召&#xff0c;促进合肥、上海两地新能源汽车产业链上下游企业融合对接、协同发展&#xff0c;共同打造长三角世界级新能源汽车产业集群&#xff0c;11月28日&#xff0c;合肥市工信局组织部分县区工信部门及全市30余户新能源汽车产…...

访问http网页强制跳转到了https的解决办法

目录 解决浏览器自动从 HTTP 重定向到 HTTPS 的问题问题原因&#xff1a;HSTS&#xff08;HTTP Strict Transport Security&#xff09;什么是 HSTS&#xff1f;HSTS 的工作原理 如何解决&#xff1f;1. 清除浏览器的 HSTS 信息在 Chrome 中清除 HSTS 信息&#xff1a;在 Firef…...

PDF处理的创新工具:福昕低代码平台尝鲜

在当今数字化时代&#xff0c;PDF文件的处理和管理变得越来越重要。福昕低代码平台是新发布的一款创新的工具&#xff0c;旨在简化PDF处理和管理的流程。通过这个平台&#xff0c;用户可以通过简单的拖拽界面上的按钮&#xff0c;轻松完成对Cloud API的调用工作流&#xff0c;而…...

EmoAva:首个大规模、高质量的文本到3D表情映射数据集。

2024-12-03&#xff0c;由哈尔滨工业大学&#xff08;深圳&#xff09;的计算机科学系联合澳门大学、新加坡南洋理工大学等机构创建了EmoAva数据集&#xff0c;这是首个大规模、高质量的文本到3D表情映射数据集&#xff0c;对于推动情感丰富的3D头像生成技术的发展具有重要意义…...

SpringMVC ——(1)

1.SpringMVC请求流程 1.1 SpringMVC请求处理流程分析 Spring MVC框架也是⼀个基于请求驱动的Web框架&#xff0c;并且使⽤了前端控制器模式&#xff08;是⽤来提供⼀个集中的请求处理机制&#xff0c;所有的请求都将由⼀个单⼀的处理程序处理来进⾏设计&#xff0c;再根据请求…...

测试工具LoadRunner Professional脚本编写-脚本设置

勾选扩展日志-全选 原因:在并发完成后,通过抽查关键用户日志的方式,检查参数化是否如预期一致,比如抽查用户1(仓库一,物品一),用户11(仓库二,物品一),用户100(仓库十,物品十) 设置忽略思考时间 原因:是否忽略思考时间,请求数可能会有几十倍的差距…...

运用蓝光三维扫描仪的艺术与科技的完美融合-石膏头像模型3D扫描真实复刻

石膏头像具有独特的魅力&#xff0c;每一处细节都彰显着艺术之美。无论是深邃的眼神&#xff0c;还是精致的轮廓&#xff0c;都让人陶醉其中。 随着雕塑形式的日渐丰富&#xff0c;越来越多的新材料和新的塑造手法被运用到雕塑创作中&#xff0c;蓝光三维扫描技术的应用&#…...

文本域设置高度 加上文字限制并show出来:

文本域设置高度 :rows"4" 加上文字限制并show出来&#xff1a; maxlength"30" show-word-limit 效果: <el-form-item label"产品备注" prop"remark"><el-input v-model"form.remark" type"textarea"…...

探索数据确权、隐私保护、安全共享等方面的挑战与解决方案

在数据确权、隐私保护、安全共享等方面&#xff0c;当前确实面临着诸多挑战&#xff0c;同时也存在一些有效的解决方案。以下是对这些方面的详细探讨&#xff1a; 一、数据确权 挑战 权属关系模糊&#xff1a;由于数据具有复杂性和隐蔽性等特点&#xff0c;使得数据的权属关…...

麒麟 V10(ky10.x86_64)无网环境下 openssl - 3.2.2 与 openssh - 9.8p1 升级【最全教程】

目录 背景 安装包下载 上传解压安装包 安装zlib 安装OpenSSL 安装OpenSSH 验证 背景 近期&#xff0c;项目上线已进入倒计时阶段&#xff0c;然而在至关重要的安全检查环节中&#xff0c;却惊现现有的 OpenSSH 存在一系列令人担忧的漏洞&#xff1a; OpenSSH 资源管理错…...

前端技术(23) : 聊天页面

来源: GPT生成之后微调 效果图 HTML代码 <!DOCTYPE html> <html lang"en"><head><meta charset"UTF-8"><meta name"viewport" content"widthdevice-width, initial-scale1.0"><title>聊天</t…...

ArcMap 处理河道坡度、计算污染区、三维爆炸功能

ArcMap 处理河道坡度、计算污染区、三维爆炸功能今天分析 一、计算河道方向坡度 1、折线转栅格 确定 2、提取河道高程值 确定后展示河流的高程值 3、计算坡向数据 确定后展示 4、计算坡度数据 确定后展示 二、计算上游集水区污染值 1、填挖处理 确定 2、计算流向 确定 3、计算…...

数据结构 (30)计算式查找法——哈希法

前言 数据结构中的计算式查找法&#xff0c;特别是哈希法&#xff08;又称散列法、杂凑法、关键字地址计算法&#xff09;&#xff0c;是一种高效的查找技术。 一、哈希法的基本概念 哈希法是通过一个哈希函数将关键字映射到哈希表中的某个位置&#xff0c;从而实现快速查找的技…...

电子商务人工智能指南 4/6 - 内容理解

介绍 81% 的零售业高管表示&#xff0c; AI 至少在其组织中发挥了中等至完全的作用。然而&#xff0c;78% 的受访零售业高管表示&#xff0c;很难跟上不断发展的 AI 格局。 近年来&#xff0c;电子商务团队加快了适应新客户偏好和创造卓越数字购物体验的需求。采用 AI 不再是一…...

交易系统:线上交易系统流程详解

大家好&#xff0c;我是汤师爷~ 今天聊聊线上交易系统流程详解。 线上交易系统为新零售连锁商家提供一站式线上交易解决方案。其核心目标是&#xff0c;通过数字化手段扩大商家的服务范围&#xff0c;突破传统门店的地理限制。系统支持电商、O2O等多种业务形态&#xff0c;为…...

如何通过自学成长为一名后端开发工程师?

大家好&#xff0c;我是袁庭新。最近&#xff0c;有星友向我提出了一个很好的问题&#xff1a;如何通过自学成为一名后端开发工程师&#xff1f; 为了解答这个疑问&#xff0c;我特意制作了一个视频来详细分享我的看法和建议。 戳链接&#xff1a;如何通过自学成长为一名后端开…...