【Reinforcement Learning】强化学习下的多级反馈队列(MFQ)算法
📢本篇文章是博主强化学习(RL)领域学习时,用于个人学习、研究或者欣赏使用,并基于博主对相关等领域的一些理解而记录的学习摘录和笔记,若有不当和侵权之处,指出后将会立即改正,还望谅解。文章分类在👉强化学习专栏:
【强化学习】(49)---《强化学习下的多级反馈队列(MFQ)算法》
强化学习下的多级反馈队列(MFQ)算法
目录
1.前言
2.背景与问题描述
3.多级反馈队列与强化学习的结合
状态定义
动作定义
奖励设计
强化学习算法
4.实现机制
5.强化学习背景下的优势
[Python] 强化学习环境下的多级反馈队列(MFQ)实验
1. 定义强化学习环境
2. RL智能体
[Notice] 实验设计
6.实际应用与挑战
7.总结
1.前言
在强化学习(Reinforcement Learning, RL)相关背景下,多级反馈队列(Multilevel Feedback Queue, MFQ)算法可以作为调度问题的求解框架,用于优化资源分配和任务调度策略。在这种情况下,MFQ的概念和机制可以被调整为一种面向学习的形式,其中调度策略通过强化学习算法来动态优化。
以下是强化学习背景下多级反馈队列的详细介绍:
2.背景与问题描述
在强化学习的场景中,任务调度通常涉及以下挑战:
- 多任务竞争:多个任务需要使用有限的资源(如CPU时间片、内存等),如何有效调度以提高系统性能。
- 不确定性:任务的执行时间、到达时间和优先级可能是动态变化的。
- 优化目标:调度策略需要权衡不同目标,如最小化等待时间、提高吞吐量或响应时间。
多级反馈队列调度问题可以建模为一个强化学习问题,其中:
- 环境:表示任务到达、队列状态和系统资源状况。
- 智能体:负责决定如何在不同的队列中分配任务。
- 动作:调度策略决定将任务分配到哪个队列,或是否调整队列的优先级。
- 奖励:根据调度效果(如任务完成时间、系统吞吐量等)反馈奖励信号。
3.多级反馈队列与强化学习的结合
在强化学习背景下,MFQ可以通过强化学习算法动态优化调度策略,从而提升其性能。以下是具体机制:
-
状态定义
状态可以包括以下信息:
当前所有队列中的任务数量和属性(如执行时间、优先级)。
每个队列的时间片大小。
系统的资源使用状况(如CPU占用率)。
当前时间和系统运行状态。
-
动作定义
智能体可以采取的动作包括:
- 将新到达的任务分配到某个队列。
- 调整现有任务的优先级(将任务从低优先级队列提升到高优先级队列)。
- 调整时间片的大小,以适应任务负载的动态变化。
-
奖励设计
奖励信号反映调度策略的好坏,可以包括:
- 正向奖励:当任务完成、吞吐量提高或等待时间减少时给予正向奖励。
- 负向奖励:当任务等待时间过长或资源利用率低下时给予负向奖励。
- 多目标优化:奖励函数可以综合考虑多个目标,如响应时间、吞吐量、资源利用率等。
强化学习算法
以下RL算法可以用于优化多级反馈队列调度策略:
- Q-Learning:通过表格方式学习队列状态和动作的值函数。
- 深度Q网络(DQN):适用于高维状态空间,利用神经网络预测动作的价值。
- 策略梯度方法:直接优化策略,适用于连续动作空间。
- 强化学习结合元学习:通过学习任务特性自适应调整调度策略。
4.实现机制
强化学习背景下的多级反馈队列可以通过以下流程实现:
-
队列初始化:
定义多级队列(如三层队列)。
设置初始的时间片大小和优先级规则。
-
任务到达与分配:
当新任务到达时,智能体根据当前状态选择将其分配到哪个队列。
可以在初始阶段使用启发式规则,逐渐过渡到强化学习决策。
-
动态调度与反馈:
智能体根据强化学习策略决定:
调度哪个队列中的任务。
是否调整时间片大小或优先级。
系统环境根据任务的完成情况生成奖励反馈。
-
更新策略:
智能体根据奖励信号更新调度策略,优化长期累计奖励。
5.强化学习背景下的优势
-
动态性与适应性:
- 强化学习算法可以根据任务的动态变化自适应调整调度策略。
- 与传统静态规则相比,能够处理任务到达分布的非平稳性。
-
多目标优化:
- 强化学习允许通过设计复杂的奖励函数同时优化多个性能指标。
-
长期收益:
- 强化学习关注长期累计奖励,而非仅关注当前任务,从而能平衡短期和长期性能。
[Python] 强化学习环境下的多级反馈队列(MFQ)实验
设计思路
-
状态空间:
定义为系统当前的任务队列状态(例如:各队列任务数量、优先级等)。
-
动作空间:
定义为调度器的决策,例如:选择某个队列中的任务执行或任务的优先级调整。
-
奖励函数:
优化目标通常包括:
最小化任务平均等待时间。
最小化任务完成时间。
最大化系统资源利用率。
-
RL智能体:
使用深度Q学习(DQN)或策略梯度方法优化调度策略。
DQN的目标是通过学习动作-价值函数,来找到最优策略,使得智能体在每个状态
下执行动作
能获得的未来累积奖励最大化。
Q值函数:Q值函数表示在状态 下执行动作
后能够获得的期望回报:
: 第
步的奖励。
: 折扣因子,控制未来奖励的权重。
深度Q网络:DQN使用神经网络来近似Q值函数 ,其中
是网络参数。网络输入是状态
,输出是对应每个动作的Q值。
🔥若是下面代码复现困难或者有问题,欢迎评论区留言;需要以整个项目形式的代码,请在评论区留下您的邮箱📌,以便于及时分享给您(私信难以及时回复)。
以下使用 gym
库模拟强化学习环境,并实现 RL 智能体优化 MFQ。
1. 定义强化学习环境
环境类继承自 gym.Env
,实现 MFQ 逻辑。
"""《强化学习环境下的多级反馈队列(MFQ)实验》时间:2024.11环境:gym作者:不去幼儿园
"""
import gym
from gym import spaces
import numpy as np
from collections import dequeclass MFQEnvironment(gym.Env):def __init__(self, num_queues=3, time_slices=[2, 4, 8], max_tasks=10):super(MFQEnvironment, self).__init__()self.num_queues = num_queuesself.time_slices = time_slicesself.queues = [deque() for _ in range(num_queues)]self.current_time = 0self.max_tasks = max_tasks# Define action and observation space# Actions: [0..num_queues-1], representing which queue to pick a task fromself.action_space = spaces.Discrete(num_queues)# Observations: queue lengths + task remaining times (flattened)self.observation_space = spaces.Box(low=0, high=max_tasks, shape=(num_queues,), dtype=np.int32)self.tasks = []self._initialize_tasks()def _initialize_tasks(self):"""Initialize a random set of tasks"""for i in range(self.max_tasks):arrival_time = np.random.randint(0, 5)burst_time = np.random.randint(1, 10)task = {'task_id': i,'arrival_time': arrival_time,'burst_time': burst_time,'remaining_time': burst_time,'priority': 0}self.queues[0].append(task)def step(self, action):"""Execute the action and return new state, reward, done, info"""# Select queue and execute the first taskif len(self.queues[action]) > 0:task = self.queues[action].popleft()time_slice = self.time_slices[action]execution_time = min(task['remaining_time'], time_slice)# Simulate executionself.current_time += execution_timetask['remaining_time'] -= execution_timeif task['remaining_time'] == 0:reward = 1 # Task completed successfullyelse:# Move task to a lower-priority queuenext_priority = min(task['priority'] + 1, self.num_queues - 1)task['priority'] = next_priorityself.queues[next_priority].append(task)reward = -0.1 # Penalize for incomplete taskelse:reward = -1 # Penalize invalid action (empty queue)# Check if all tasks are completeddone = all(len(queue) == 0 for queue in self.queues)# Observation: current queue lengthsobservation = np.array([len(queue) for queue in self.queues])return observation, reward, done, {}def reset(self):"""Reset the environment to the initial state"""self.queues = [deque() for _ in range(self.num_queues)]self.current_time = 0self.tasks = []self._initialize_tasks()return np.array([len(queue) for queue in self.queues])def render(self, mode='human'):"""Render the current state"""print(f"Current time: {self.current_time}")for i, queue in enumerate(self.queues):print(f"Queue {i}: {[task['task_id'] for task in queue]}")
2. RL智能体
使用 DQN 智能体来学习优化调度策略。
import random
import torch
import torch.nn as nn
import torch.optim as optimclass DQNScheduler(nn.Module):def __init__(self, input_size, output_size):super(DQNScheduler, self).__init__()self.fc = nn.Sequential(nn.Linear(input_size, 64),nn.ReLU(),nn.Linear(64, 64),nn.ReLU(),nn.Linear(64, output_size))def forward(self, x):return self.fc(x)
def train_dqn(env, episodes=500):input_size = env.observation_space.shape[0]output_size = env.action_space.ndqn = DQNScheduler(input_size, output_size)optimizer = optim.Adam(dqn.parameters(), lr=0.001)loss_fn = nn.MSELoss()replay_buffer = deque(maxlen=1000)gamma = 0.99epsilon = 1.0epsilon_decay = 0.995min_epsilon = 0.1for episode in range(episodes):state = env.reset()total_reward = 0done = Falsewhile not done:if random.random() < epsilon:action = env.action_space.sample()else:with torch.no_grad():q_values = dqn(torch.tensor(state, dtype=torch.float32))action = q_values.argmax().item()next_state, reward, done, _ = env.step(action)replay_buffer.append((state, action, reward, next_state, done))total_reward += rewardstate = next_state# Replay buffer trainingif len(replay_buffer) >= 32:batch = random.sample(replay_buffer, 32)states, actions, rewards, next_states, dones = zip(*batch)states = torch.tensor(states, dtype=torch.float32)actions = torch.tensor(actions, dtype=torch.int64).unsqueeze(1)rewards = torch.tensor(rewards, dtype=torch.float32)next_states = torch.tensor(next_states, dtype=torch.float32)dones = torch.tensor(dones, dtype=torch.float32)q_values = dqn(states).gather(1, actions).squeeze()next_q_values = dqn(next_states).max(1)[0]target_q_values = rewards + gamma * next_q_values * (1 - dones)loss = loss_fn(q_values, target_q_values.detach())optimizer.zero_grad()loss.backward()optimizer.step()epsilon = max(min_epsilon, epsilon * epsilon_decay)print(f"Episode {episode + 1}/{episodes}, Total Reward: {total_reward}")return dqn
[Notice] 实验设计
- 目标: 测试智能体在动态任务到达场景中优化任务调度的性能。
- 评价指标:
- 平均等待时间。
- 系统资源利用率。
- 总任务完成时间。
- 环境参数:
- 三级队列,时间片为 2、4、8 单位。
- 任务到达时间与执行时间随机分布。
由于博文主要为了介绍相关算法的原理和应用的方法,缺乏对于实际效果的关注,算法可能在上述环境中的效果不佳或者无法运行,一是算法不适配上述环境,二是算法未调参和优化,三是没有呈现完整的代码,四是等等。上述代码用于了解和学习算法足够了,但若是想直接将上面代码应用于实际项目中,还需要进行修改。
定义实验测试用例,生成任务和调度日志
import random
import pandas as pd# Generate test cases for MFQ environment
def generate_test_tasks(num_tasks=10, max_arrival_time=10, max_burst_time=15):tasks = []for task_id in range(num_tasks):arrival_time = random.randint(0, max_arrival_time)burst_time = random.randint(1, max_burst_time)task = {'Task ID': task_id,'Arrival Time': arrival_time,'Burst Time': burst_time,}tasks.append(task)return tasks# Log generation for MFQ execution
def generate_execution_log(tasks, scheduler_output):logs = []for log in scheduler_output:logs.append({'Time': log['time'],'Queue': log['queue'],'Task ID': log['task_id'],'Action': log['action']})return pd.DataFrame(logs)# Simulate test tasks
num_tasks = 10
test_tasks = generate_test_tasks(num_tasks=num_tasks)
task_df = pd.DataFrame(test_tasks)# Display generated tasks
import ace_tools as tools; tools.display_dataframe_to_user(name="Generated Test Tasks for MFQ", dataframe=task_df)
6.实际应用与挑战
实际应用
- 云计算资源调度:通过强化学习优化虚拟机任务调度。
- 操作系统任务管理:动态调整任务优先级和队列时间片。
- 嵌入式系统:在资源有限的情况下优化任务调度。
主要挑战
- 状态空间复杂:多任务和多队列导致状态空间维度高,难以用传统表格方法处理。
- 学习效率低:在线学习可能需要较长时间才能收敛到优良策略。
- 奖励延迟问题:调度的效果可能在较长时间后才能显现,增加了学习难度。
7.总结
在强化学习背景下,多级反馈队列算法的调度策略不再是静态规则,而是通过强化学习实现动态优化。这种方法充分利用了强化学习的自适应性和长期优化特性,使得MFQ能够更高效地应对动态任务调度问题。通过设计合理的状态、动作和奖励函数,强化学习驱动的MFQ可以在多任务场景中显著提升调度性能。
更多文章,请查看文章:
【MADRL】多智能体深度强化学习《纲要》
博客都是给自己看的笔记,如有误导深表抱歉。文章若有不当和不正确之处,还望理解与指出。由于部分文字、图片等来源于互联网,无法核实真实出处,如涉及相关争议,请联系博主删除。如有错误、疑问和侵权,欢迎评论留言联系作者,或者添加VX:Rainbook_2,联系作者。✨
相关文章:
【Reinforcement Learning】强化学习下的多级反馈队列(MFQ)算法
📢本篇文章是博主强化学习(RL)领域学习时,用于个人学习、研究或者欣赏使用,并基于博主对相关等领域的一些理解而记录的学习摘录和笔记,若有不当和侵权之处,指出后将会立即改正,还望谅…...
Cocos编辑器
1、下载 下载地址:https://www.cocos.com/creator-download 2、编辑器界面介绍 官方链接:https://docs.cocos.com/creator/3.8/manual/zh/editor/ 3、项目结构 官方链接:https://docs.cocos.com/creator/3.8/manual/zh/getting-started/…...
Linux kernel 堆溢出利用方法(三)
前言 本文我们通过我们的老朋友heap_bof来讲解Linux kernel中任意地址申请的其中一种比赛比较常用的利用手法modprobe_path(虽然在高版本内核已经不可用了但ctf比赛还是比较常用的)。在通过两道道近期比赛的赛题来讲解。 Arbitrary Address Allocation…...
文心一言与千帆大模型平台的区别:探索百度AI生态的双子星
随着人工智能技术的迅猛发展,越来越多的公司开始投入资源开发自己的AI解决方案。在中国,百度作为互联网巨头之一,不仅在搜索引擎领域占据重要位置,还在AI领域取得了显著成就。其中,“文心一言”和“千帆大模型平台”便…...
JavaWeb——SpringBoot原理
10.1. 配置优先级 10.1.1. 配置文件 properties > yml(推荐) > yaml 10.1.2. Java系统属性、命令行参数 命令行参数 > Java系统属性 > 配置文件 10.2. Bean管理 10.2.1. 手动获取bean ApplicationContext,IOC容器对象 10.2.2. bean作用域 10.2.3.…...
【算法】连通块问题(C/C++)
目录 连通块问题 解决思路 步骤: 初始化: DFS函数: 复杂度分析 代码实现(C) 题目链接:2060. 奶牛选美 - AcWing题库 解题思路: AC代码: 题目链接:687. 扫雷 -…...
Oracle RAC 环境下数据文件误建在本地目录的处理过程
问题描述 在 Oracle RAC 环境中,有时会误将数据文件创建在本地目录,导致其他节点无法访问该数据文件,从而报出 ORA-01157 和 ORA-01110 错误。 问题分析 错误日志 Mon Nov 16 19:02:38 2021 Errors in file /u01/app/oracle/diag/rdbms/orc…...
使用R语言绘制简单地图的教程
今天主要讲的部分是绘制静态地图,使用的R语言绘图包是tmap,关于介绍就不多讲,下面开始代码的讲解,小白也可以放心食用。 1、绘制简单的单幅地图,这里以新西兰地区为例 #导入必要的包 library(tmap) library(sp) libr…...
【人工智能】基于PyTorch的深度强化学习入门:从DQN到PPO的实现与解析
《Python OpenCV从菜鸟到高手》带你进入图像处理与计算机视觉的大门! 深度强化学习(Deep Reinforcement Learning)是一种结合深度学习和强化学习的技术,适用于解决复杂的决策问题。深度Q网络(DQN)和近端策略优化(PPO)是其中两种经典的算法,被广泛应用于游戏、机器人控…...
学习threejs,使用设置lightMap光照贴图创建阴影效果
👨⚕️ 主页: gis分享者 👨⚕️ 感谢各位大佬 点赞👍 收藏⭐ 留言📝 加关注✅! 👨⚕️ 收录于专栏:threejs gis工程师 文章目录 一、🍀前言1.1 ☘️THREE.MeshLambertMaterial…...
类和对象(中)
文章目录 目录1. 类的6个默认成员函数2. 构造函数3. 析构函数4. 拷贝构造函数5. 赋值运算符重载5.1 运算符重载5.2 赋值运算符重载5.3 日期类实现 6. const成员函数7. 取地址及const取地址操作符重载 目录 类的6个默认成员函数构造函数析构函数拷贝构造函数赋值运算符重载cons…...
编程之路,从0开始:预处理详解(完结篇)
Hello大家好!很高兴我们又见面啦!给生活添点passion,开始今天的编程之路! 我的博客:<但凡. 我的专栏:编程之路 这一篇预处理详解是我们C语言基础内容学习的最后一篇,也是我们的专栏ÿ…...
[chrome]黑色界面插件,PDF合并插件
Dark Reader_chrome插件下载,最新浏览器扩展,crx离线安装包 - 插件小屋 合并 PDF_chrome插件下载,最新浏览器扩展,crx离线安装包 - 插件小屋 下载的zip包解压成crx,然后把后缀名改为rar,然后解压,再导入解压的目录。...
【c语言】文件操作详解 - 从打开到关闭
文章目录 1. 为什么使用文件?2. 什么是文件?3. 如何标识文件?4. 二进制文件和文本文件?5. 文件的打开和关闭5.1 流和标准流5.1.1 流5.1.2 标准流 5.2 文件指针5.3 文件的打开和关闭 6. 文件的读写顺序6.1 顺序读写函数6.2 对比一组…...
AIGC--AIGC与人机协作:新的创作模式
AIGC与人机协作:新的创作模式 引言 人工智能生成内容(AIGC)正在以惊人的速度渗透到创作的各个领域。从生成文本、音乐、到图像和视频,AIGC使得创作过程变得更加快捷和高效。然而,AIGC并非完全取代了人类的创作角色&am…...
刷题日常(数据流中的中位数,逆波兰表达式求值,最长连续序列,字母异位词分组)
数据流中的中位数 描述 如何得到一个数据流中的中位数?如果从数据流中读出奇数个数值,那么中位数就是所有数值排序之后位于中间的数值。如果从数据流中读出偶数个数值,那么中位数就是所有数值排序之后中间两个数的平均值。我们使用Insert()…...
Redis突然变慢,有哪些原因?
目录 一、存在bigkey 二、如果Redis 实例设置了内存上限 maxmemory,有可能导致 Redis 变慢 三、开启了内存大页 四、使用了Swap 五、网络带宽过载 六、频繁短连接 一、存在bigkey 如果Redis实例中存储了 bigkey,那么在淘汰删除 bigkey 释放内存时&…...
Qt入门1——认识Qt的几个常用头文件和常用函数
1.头文件 ① #include <QPushButton>——“按钮”头文件; ② #include <QLabel>——“标签”头文件; ③ #include <QFont>——“字体”头文件; ④#include <QDebug>——输出相关信息; 2. 常用函数/类的基…...
Banana Pi BPI-CanMV-K230D-Zero 采用嘉楠科技 K230D RISC-V芯片设计
概述 Banana Pi BPI-CanMV-K230D-Zero 采用嘉楠科技 K230D RISC-V芯片设计,探索 RISC-V Vector1.0 的前沿技术,选择嘉楠科技的 Canmv K230D Zero 开发板。这款创新的开发板是由嘉楠科技与香蕉派开源社区联合设计研发,搭载了先进的勘智 K230D 芯片。 K230…...
CSS笔记(一)炉石传说卡牌设计1
目标 我要通过html实现一张炉石传说的卡牌设计 问题 其中必须就要考虑到各个元素的摆放,形状的调整来达到满意的效果。通过这个联系来熟悉一下CSS的基本操作。 1️⃣ 基本概念 在CSS里面有行元素,块元素,内联元素,常见的行元…...
怎么在宿主机上通过ssh连接虚拟机 VirtualBox 中的linux系统
通过 Xshell 连接 VirtualBox 中的 linux 虚拟机,您需要确保以下几个步骤都正确配置: 1. 配置 VirtualBox 网络 您需要将 VirtualBox 虚拟机的网络适配器设置为支持 SSH 连接的模式: 打开 VirtualBox,选择您的 Ubuntu 虚拟机&am…...
Spire.PDF for .NET【页面设置】演示:打开 PDF 时自动显示书签或缩略图
用户打开 PDF 文档时,他们会看到 PDF 的初始视图。默认情况下,打开 PDF 时不会显示书签面板或缩略图面板。在本文中,我们将演示如何设置文档属性,以便每次启动文件时都会打开书签面板或缩略图面板。 Spire.PDF for .NET 是一款独…...
241125学习日志——[CSDIY] [InternStudio] 大模型训练营 [17]
CSDIY:这是一个非科班学生的努力之路,从今天开始这个系列会长期更新,(最好做到日更),我会慢慢把自己目前对CS的努力逐一上传,帮助那些和我一样有着梦想的玩家取得胜利!!&…...
Centos 7 安装 Docker 最新版本
文章目录 一、卸载旧版本二、安装最新版本docker三、问题解决3.1 启动docker报错3.2 启动容器报错 一、卸载旧版本 #如果之前安装过旧版本的Docker,可以使用下面命令卸载 yum remove docker \docker-client \docker-client-latest \docker-common \docker-latest …...
JavaScript的基础数据类型
一、JavaScript中的数组 定义 数组是一种特殊的对象,用于存储多个值。在JavaScript中,数组可以包含不同的数据类型,如数字、字符串、对象、甚至其他数组。数组的创建有两种常见方式: 字面量表示法:let fruits [apple…...
网络安全-------防止被抓包
1.Ios应用网络安全之https 安全套接字层 (Secure Socket Layer, SSL) 是用来实现互联网安全通信的最普遍的标准。Web 应用程序使用 HTTPS(基于 SSL 的 HTTP),HTTPS 使用数字证书来确保在服务器和客户端之间进行安全、加密的通信。在 SSL 连接…...
【Linux】认识进程以及进程的状态
目录 认识进程 基本概念 查看进程 父子进程 进程的状态 进程排队 运行状态 阻塞状态 挂起状态 僵尸进程 孤儿进程 认识进程 基本概念 有些教材上会说:正在运行的程序就是进程。这并没有错误,但是太过于笼统。现在我们深入到Linux底层来了解…...
Parker派克防爆电机在实际应用中的安全性能如何保证?
Parker防爆电机确保在实际应用中的安全性能主要通过以下几个方面来保证: 1.防爆外壳设计:EX系列电机采用强大的防爆外壳,设计遵循严格的防爆标准,能够承受内部可能发生的爆炸而不破损,利用间隙切断原理,防…...
11超全局变量php
超级全局变量是指在php任意脚本下都可以使用 PHP 超级全局变量列表: $GLOBALS:是PHP的一个超级全局变量组,在一个PHP脚本的全部作用域中都可以访问。 $_SERVER:$_SERVER 是一个PHP内置的超级全局变量,它是一个包含了诸如头信息(header)、路…...
路由器中继与桥接
一 . 背景 现在的路由器大多数已经开始支持多种网络连接模式,以下将以TP-Link迷你无线路由器为例进行展开介绍。在TP-Link迷你无线路由器上一般有AP(接入点)模式,Router(无线路由)模式,Repeate…...
[算法] 前缀函数与KMP算法
前缀函数 前缀函数 n x t [ i ] nxt[i] nxt[i]定义为 子串 s [ 1 … i ] s[1\dots i] s[1…i]最长的相等的真前缀与真后缀的长度。 计算前缀函数 scanf("%s",b1);lbstrlen(b1);int j0;nxt[1]0;for(int i2;i<lb;i){while(j&&b[j1]!b[i]) jnxt[j];if(b[j…...
电子学习中的关键游戏化元素
游戏化彻底改变了电子学习领域,提供了一种使学习具有吸引力、互动性和有效性的方法。通过将类似游戏的功能集成到教育平台中,教育工作者可以增强动力,提高知识记忆,并创造动态的学习体验。游戏化的关键要素为设计与学习者产生共鸣…...
通过端口测试验证网络安全策略
基于网络安全需求,项目中的主机间可能会有不同的网络安全策略,这当然是好的,但很多时候,在解决网络安全问题的时候,同时引入了新的问题,如k8s集群必须在主机间开放udp端口,否则集群不能正常的运…...
Mac配置maven环境及在IDEA中配置Maven
Mac配置maven环境及在IDEA中配置Maven 1. 介绍 Maven是一款广泛用于Java等JVM语言项目的工具,它以项目对象模型(POM)为基础进行项目管理,通过POM文件来定义项目信息和依赖关系。同时,它也是构建自动化工具࿰…...
TCP流套接字编程
TCP流套接字与UDP数据报套接字对比 API介绍 TCP协议核心的特点是面向字节流,是通过读取数据(单位字节)来完成通信。 TCP套接字与UDP套接字不同的点在于TCP是通过建立连接,使用输入流和输出流的方式完成通信。 ServerSocket 是…...
《硬件架构的艺术》笔记(七):处理字节顺序
介绍 本章主要介绍字节顺序的的基本规则。(感觉偏软件了,不知道为啥那么会放进《硬件架构的艺术》这本书)。 定义 字节顺序定义数据在计算机系统中的存储格式,描述存储器中的MSB和LSB的位置。对于数据始终以32位形式保存在存储器…...
IDEA2024如何创建Web项目以及配置Tomcat
在Web项目的开发过程中,Tomcat作为一款开源的Servlet容器,扮演着至关重要的角色。它不仅能够提供稳定的运行环境,还支持多种Java EE规范,为开发者提供了丰富的功能支持。因此,正确配置Tomcat服务器对于确保Web项目的顺…...
「Chromeg谷歌浏览器/Edge浏览器」篡改猴Tempermongkey插件的安装与使用
1. 谷歌浏览器安装及使用流程 1.1 准备篡改猴扩展程序包。 因为谷歌浏览器的扩展商城打不开,所以需要准备一个篡改猴压缩包。 其他浏览器只需打开扩展商城搜索篡改猴即可。 没有压缩包的可以进我主页下载。 也可直接点击下载:Chrome浏览器篡改猴(油猴…...
java学习记录12
ArrayList方法总结 构造方法 ArrayList() 构造一个初始容量为 10 的空列表。 ArrayList(int initialCapacity) 构造一个具有指定初始容量的空列表。 实例方法 add(int index, E element) 在此list中的指定位置插入指定元素。 ArrayList<Integer> array…...
网络协议之DNS
一、DNS概述 域名系统(Domain Name System,缩写:DNS)是互联网的一项服务。它作为将域名和IP地址相互映射的一个分布式数据库,能够使人更方便地访问互联网。DNS使用TCP和UDP端口53,通过递归查询请求的方式来…...
第02章_MySQL环境搭建(基础)
1. MySQL 的卸载 1.1 步骤1:停止 MySQL 服务 在卸载之前,先停止 MySQL8.0 的服务。按键盘上的 “Ctrl Alt Delete” 组合键,打开“任务管理器”对话 框,可以在“服务”列表找到“MySQL8.0” 的服务,如果现在“正在…...
反向代理模块
1 概念 1.1 反向代理概念 反向代理是指以代理服务器来接收客户端的请求,然后将请求转发给内部网络上的服务器,将从服务器上得到的结果返回给客户端,此时代理服务器对外表现为一个反向代理服务器。 对于客户端来说,反向代理就相当于…...
【强化学习的数学原理】第05课-蒙特卡洛方法-笔记
学习资料:bilibili 西湖大学赵世钰老师的【强化学习的数学原理】课程。链接:强化学习的数学原理 西湖大学 赵世钰 文章目录 一、通过例子介绍蒙特卡洛二、 MC Basic 算法介绍三、MC Basic 算法例子例1:MC Baxic算法例2:episode le…...
Spring源码(十三):Spring全系列总结
Spring总结篇,不同于之前抽丝剥茧式地纵向深入源码,本次从横向的角度出发,希望可以带个读者一个完全不同的Spring视角。 2024年重置版,搞点不一样的东西。希望通过本篇的内容,将之前的文章全部给串起来。 相关前文: Spring Boot启动加载Spring Web请求处理流程Spring上…...
算法日记 33 day 动态规划(打家劫舍,股票买卖)
今天来看看动态规划的打家劫舍和买卖股票的问题。 上题目!!!! 题目:打家劫舍 198. 打家劫舍 - 力扣(LeetCode) 你是一个专业的小偷,计划偷窃沿街的房屋。每间房内都藏有一定的现金…...
从零开始打造个人博客:我的网页设计之旅
✅作者简介:2022年博客新星 第八。热爱国学的Java后端开发者,修心和技术同步精进。 🍎个人主页:Java Fans的博客 🍊个人信条:不迁怒,不贰过。小知识,大智慧。 ✨特色专栏:…...
用python将一个扫描pdf文件改成二值图片组成的pdf文件
使用墨水屏读书现在似乎越来越流行,这确实有一定的好处,例如基本不发热,电池续航时间超长,基本不能游戏所以有利于沉浸式阅读,还有不知道是不是真的有用的所谓防蓝光伤害。但是,如果阅读的书籍是扫描图片组…...
Electron开发构建工具electron-vite(alex8088)添加VueDevTools(VitePlugin)
零、介绍 本文章的electron-vite指的是这个项目👉electron-vite仓库,electron-vite网站 本文章的VueDevTools指的是VueDevTools的Vite插件版👉https://devtools.vuejs.org/guide/vite-plugin 一、有一个用electron-vite创建的项目 略 二、…...
服务器数据恢复—raid5阵列热备盘上线失败导致EXT3文件系统不可用的数据恢复案例
服务器数据恢复环境: 两组分别由4块SAS硬盘组建的raid5阵列,两组阵列划分的LUN组成LVM架构,格式化为EXT3文件系统。 服务器故障: 一组raid5阵列中的一块硬盘离线。热备盘自动上线替换离线硬盘,但在热备盘上线同步数据…...
网络安全基础——网络安全法
填空题 1.根据**《中华人民共和国网络安全法》**第二十条(第二款),任何组织和个人试用网路应当遵守宪法法律,遵守公共秩序,遵守社会公德,不危害网络安全,不得利用网络从事危害国家安全、荣誉和利益,煽动颠…...