PyTorch框架——基于深度学习LYT-Net神经网络AI低光图像增强系统源码
第一步:LYT-Net介绍
本文介绍了LYT-Net,即轻量级YUV Transformer 网络,作为一种新的低光图像增强方法。所提出的架构与传统的基于Retinex的模型不同,它利用YUV颜色空间对亮度(Y)和色度(U和V)的自然分离,简化了在图像中分离光和颜色信息的复杂任务。通过利用 Transformer 捕捉长距离依赖关系的优势,LYT-Net在保持降低模型复杂性的同时,确保了对图像的全面上下文理解。通过采用一种新颖的混合损失函数,LYT-Net在低光图像增强数据集上取得了最先进的结果,同时其体积比其他方法小得多。
LYT-Net采用了YUV色彩空间,这对LLIE来说尤其有利,因为它能将亮度(Y)和色度(U和V)明确分离。通过使用这个色彩空间,作者可以专门针对能在低光条件下提高图像可见性和细节的增强,而不会对颜色信息产生不利影响。由于人眼对亮度的变化更为敏感,因此专注于Y通道可以带来更自然、感知上更吸引人的增强效果。
作者的工作主要贡献可以概括为:
LYT-Net,一个轻量级模型,采用YUV颜色空间进行针对性增强。它在去噪后的亮度层和色度层上使用多头自注意力机制,旨在在处理过程的最后阶段实现更好的融合。
设计了一个混合损失函数,它在模型的高效训练中扮演了关键角色,并对模型的增强能力有显著贡献。
通过定量和定性的实验,LYT-Net在LOL数据集上与现有技术水平(SOTA)方法相比,已显示出强大的性能。
第二步:LYT-Net网络结构
作者展示了LYT-Net的整体架构。如图所示,该模型主要包括一个主要的YUV分解部分,以将色度与亮度分离,之后是几层及可分离的块,如多头自注意力(MHSA)块、多阶段挤压与激活融合(MSEF)块和通道去噪(CWD)块。作者采用双路径方法,将色度和亮度视为独立实体,以帮助模型更好地理解在光照调整和损坏恢复之间的差异。
该模型以RGB格式处理输入图像并将其转换为YUV。每个通道都通过一系列卷积层、池化操作以及MHSA机制单独增强。亮度通道经过卷积和池化提取特征,之后通过MHSA模块进行增强。色度通道和通过CWD块处理以降低噪声同时保留细节。增强后的色度通道被重新组合并通过MSEF块处理。最终,色度与亮度被连接起来,并通过最后一组卷积层生成输出,得到高质量的增强图像。
第三步:模型代码展示
import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.nn.init as initclass LayerNormalization(nn.Module):def __init__(self, dim):super(LayerNormalization, self).__init__()self.norm = nn.LayerNorm(dim)def forward(self, x):# Rearrange the tensor for LayerNorm (B, C, H, W) to (B, H, W, C)x = x.permute(0, 2, 3, 1)x = self.norm(x)# Rearrange back to (B, C, H, W)return x.permute(0, 3, 1, 2)class SEBlock(nn.Module):def __init__(self, input_channels, reduction_ratio=16):super(SEBlock, self).__init__()self.pool = nn.AdaptiveAvgPool2d(1)self.fc1 = nn.Linear(input_channels, input_channels // reduction_ratio)self.fc2 = nn.Linear(input_channels // reduction_ratio, input_channels)self._init_weights()def forward(self, x):batch_size, num_channels, _, _ = x.size()y = self.pool(x).reshape(batch_size, num_channels)y = F.relu(self.fc1(y))y = torch.tanh(self.fc2(y))y = y.reshape(batch_size, num_channels, 1, 1)return x * ydef _init_weights(self):init.kaiming_uniform_(self.fc1.weight, a=0, mode='fan_in', nonlinearity='relu')init.kaiming_uniform_(self.fc2.weight, a=0, mode='fan_in', nonlinearity='relu')init.constant_(self.fc1.bias, 0)init.constant_(self.fc2.bias, 0)class MSEFBlock(nn.Module):def __init__(self, filters):super(MSEFBlock, self).__init__()self.layer_norm = LayerNormalization(filters)self.depthwise_conv = nn.Conv2d(filters, filters, kernel_size=3, padding=1, groups=filters)self.se_attn = SEBlock(filters)self._init_weights()def forward(self, x):x_norm = self.layer_norm(x)x1 = self.depthwise_conv(x_norm)x2 = self.se_attn(x_norm)x_fused = x1 * x2x_out = x_fused + xreturn x_outdef _init_weights(self):init.kaiming_uniform_(self.depthwise_conv.weight, a=0, mode='fan_in', nonlinearity='relu')init.constant_(self.depthwise_conv.bias, 0)class MultiHeadSelfAttention(nn.Module):def __init__(self, embed_size, num_heads):super(MultiHeadSelfAttention, self).__init__()self.embed_size = embed_sizeself.num_heads = num_headsassert embed_size % num_heads == 0self.head_dim = embed_size // num_headsself.query_dense = nn.Linear(embed_size, embed_size)self.key_dense = nn.Linear(embed_size, embed_size)self.value_dense = nn.Linear(embed_size, embed_size)self.combine_heads = nn.Linear(embed_size, embed_size)self._init_weights()def split_heads(self, x, batch_size):x = x.reshape(batch_size, -1, self.num_heads, self.head_dim)return x.permute(0, 2, 1, 3)def forward(self, x):batch_size, _, height, width = x.size()x = x.reshape(batch_size, height * width, -1)query = self.split_heads(self.query_dense(x), batch_size)key = self.split_heads(self.key_dense(x), batch_size)value = self.split_heads(self.value_dense(x), batch_size)attention_weights = F.softmax(torch.matmul(query, key.transpose(-2, -1)) / (self.head_dim ** 0.5), dim=-1)attention = torch.matmul(attention_weights, value)attention = attention.permute(0, 2, 1, 3).contiguous().reshape(batch_size, -1, self.embed_size)output = self.combine_heads(attention)return output.reshape(batch_size, height, width, self.embed_size).permute(0, 3, 1, 2)def _init_weights(self):init.xavier_uniform_(self.query_dense.weight)init.xavier_uniform_(self.key_dense.weight)init.xavier_uniform_(self.value_dense.weight)init.xavier_uniform_(self.combine_heads.weight)init.constant_(self.query_dense.bias, 0)init.constant_(self.key_dense.bias, 0)init.constant_(self.value_dense.bias, 0)init.constant_(self.combine_heads.bias, 0)class Denoiser(nn.Module):def __init__(self, num_filters, kernel_size=3, activation='relu'):super(Denoiser, self).__init__()self.conv1 = nn.Conv2d(1, num_filters, kernel_size=kernel_size, padding=1)self.conv2 = nn.Conv2d(num_filters, num_filters, kernel_size=kernel_size, stride=2, padding=1)self.conv3 = nn.Conv2d(num_filters, num_filters, kernel_size=kernel_size, stride=2, padding=1)self.conv4 = nn.Conv2d(num_filters, num_filters, kernel_size=kernel_size, stride=2, padding=1)self.bottleneck = MultiHeadSelfAttention(embed_size=num_filters, num_heads=4)self.up2 = nn.Upsample(scale_factor=2, mode='nearest')self.up3 = nn.Upsample(scale_factor=2, mode='nearest')self.up4 = nn.Upsample(scale_factor=2, mode='nearest')self.output_layer = nn.Conv2d(1, 1, kernel_size=kernel_size, padding=1)self.res_layer = nn.Conv2d(num_filters, 1, kernel_size=kernel_size, padding=1)self.activation = getattr(F, activation)self._init_weights()def forward(self, x):x1 = self.activation(self.conv1(x))x2 = self.activation(self.conv2(x1))x3 = self.activation(self.conv3(x2))x4 = self.activation(self.conv4(x3))x = self.bottleneck(x4)x = self.up4(x)x = self.up3(x + x3)x = self.up2(x + x2)x = x + x1x = self.res_layer(x)return torch.tanh(self.output_layer(x + x))def _init_weights(self):for layer in [self.conv1, self.conv2, self.conv3, self.conv4, self.output_layer, self.res_layer]:init.kaiming_uniform_(layer.weight, a=0, mode='fan_in', nonlinearity='relu')if layer.bias is not None:init.constant_(layer.bias, 0)class LYT(nn.Module):def __init__(self, filters=32):super(LYT, self).__init__()self.process_y = self._create_processing_layers(filters)self.process_cb = self._create_processing_layers(filters)self.process_cr = self._create_processing_layers(filters)self.denoiser_cb = Denoiser(filters // 2)self.denoiser_cr = Denoiser(filters // 2)self.lum_pool = nn.MaxPool2d(8)self.lum_mhsa = MultiHeadSelfAttention(embed_size=filters, num_heads=4)self.lum_up = nn.Upsample(scale_factor=8, mode='nearest')self.lum_conv = nn.Conv2d(filters, filters, kernel_size=1, padding=0)self.ref_conv = nn.Conv2d(filters * 2, filters, kernel_size=1, padding=0)self.msef = MSEFBlock(filters)self.recombine = nn.Conv2d(filters * 2, filters, kernel_size=3, padding=1)self.final_adjustments = nn.Conv2d(filters, 3, kernel_size=3, padding=1)self._init_weights()def _create_processing_layers(self, filters):return nn.Sequential(nn.Conv2d(1, filters, kernel_size=3, padding=1),nn.ReLU(inplace=True))def _rgb_to_ycbcr(self, image):r, g, b = image[:, 0, :, :], image[:, 1, :, :], image[:, 2, :, :]y = 0.299 * r + 0.587 * g + 0.114 * bu = -0.14713 * r - 0.28886 * g + 0.436 * b + 0.5v = 0.615 * r - 0.51499 * g - 0.10001 * b + 0.5yuv = torch.stack((y, u, v), dim=1)return yuvdef forward(self, inputs):ycbcr = self._rgb_to_ycbcr(inputs)y, cb, cr = torch.split(ycbcr, 1, dim=1)cb = self.denoiser_cb(cb) + cbcr = self.denoiser_cr(cr) + cry_processed = self.process_y(y)cb_processed = self.process_cb(cb)cr_processed = self.process_cr(cr)ref = torch.cat([cb_processed, cr_processed], dim=1)lum = y_processedlum_1 = self.lum_pool(lum)lum_1 = self.lum_mhsa(lum_1)lum_1 = self.lum_up(lum_1)lum = lum + lum_1ref = self.ref_conv(ref)shortcut = refref = ref + 0.2 * self.lum_conv(lum)ref = self.msef(ref)ref = ref + shortcutrecombined = self.recombine(torch.cat([ref, lum], dim=1))output = self.final_adjustments(recombined)return torch.sigmoid(output)def _init_weights(self):for module in self.children():if isinstance(module, nn.Conv2d) or isinstance(module, nn.Linear):init.kaiming_uniform_(module.weight, a=0, mode='fan_in', nonlinearity='relu')if module.bias is not None:init.constant_(module.bias, 0)
第四步:运行
第五步:整个工程的内容
项目完整文件下载请见演示与介绍视频的简介处给出:➷➷➷
PyTorch框架——基于深度学习LYT-Net神经网络AI低光图像增强系统源码_哔哩哔哩_bilibili
相关文章:
PyTorch框架——基于深度学习LYT-Net神经网络AI低光图像增强系统源码
第一步:LYT-Net介绍 本文介绍了LYT-Net,即轻量级YUV Transformer 网络,作为一种新的低光图像增强方法。所提出的架构与传统的基于Retinex的模型不同,它利用YUV颜色空间对亮度(Y)和色度(U和V&…...
【AI学习】DeepSeek-V3 技术报告学习:总体架构
翻了一下DeepSeek-V3 技术报告学习,太长,只是大概翻了一下,其中Multi-Token Prediction的技术就很亮眼。 摘要 本文介绍了DeepSeek-V3,这是一个拥有671B总参数的强大混合专家(MoE)语言模型,每…...
PyTorch快速入门
文章目录 前言简介软件包导入创建张量类型操作索引直接索引切片索引 维度变换增加维度删除维度维度重复维度交换broadcast合并张量拆分张量运算最后 前言 你好,我是醉墨居士,今天分享一下PyTorch的基本使用的快速入门教程,希望能够帮助各位快…...
GCP Cloud Observability 是什么,有什么使用场景
GCP Cloud Observability 是 Google Cloud Platform (GCP) 提供的一组工具和服务,用于监控、日志记录、追踪和调试应用程序和基础设施的健康和性能。通过收集和分析遥测数据(如指标、日志和追踪信息),Cloud Observability 有助于理…...
OpenCV相机标定与3D重建(35)计算两幅图像之间本质矩阵(Essential Matrix)的函数findEssentialMat()的使用
操作系统:ubuntu22.04 OpenCV版本:OpenCV4.9 IDE:Visual Studio Code 编程语言:C11 算法描述 从两幅图像中的对应点计算本质矩阵。 cv::findEssentialMat 是 OpenCV 库中用于计算两幅图像之间本质矩阵(Essential Matrix…...
计算机毕业设计Hadoop+Spark美团美食推荐系统 美团餐厅推荐系统 美团推荐系统 美食价格预测 美团爬虫 美食数据分析 美食可视化大屏
温馨提示:文末有 CSDN 平台官方提供的学长联系方式的名片! 温馨提示:文末有 CSDN 平台官方提供的学长联系方式的名片! 温馨提示:文末有 CSDN 平台官方提供的学长联系方式的名片! 作者简介:Java领…...
【探花交友】SpringCache
目录 通用缓存SpringCache 重要概念 导入依赖 开启缓存支持 编写UserInfoService 缓存Cacheable 发布视频清空缓存 通用缓存SpringCache 实现缓存逻辑有2种方式: 每个接口单独控制缓存逻辑 统一控制缓存逻辑Spring从3.1开始定义了org.springframework.cac…...
链表 之 无头结点【哨兵位】单向非循环链表【单链表】增删改查 等方法
系列文章目录 🎈 🎈 我的CSDN主页:OTWOL的主页,欢迎!!!👋🏼👋🏼 🎉🎉我的C语言初阶合集:C语言初阶合集,希望能…...
2001年对墨西哥湾流进行的主动荧光测量数据
目录 简介 摘要 代码 引用 网址推荐 知识星球 机器学习 干旱监测平台 Active fluorescence measurements in the Gulf Stream in 2001 简介 "Active fluorescence measurements in the Gulf Stream in 2001"是指在2001年对墨西哥湾流进行的主动荧光测量。这…...
AtCoder Beginner Contest 386
1.D - Diagonal Separation 赛时一直卡在这道题,知道思路但不知道怎么解决,就是说若存在给定的白色方块出现在某个B方块与源点构成的区域内就无法实现,如果数据是1000则可以通过离散化 二维差分来解决,赛时一直在试图通过树状数组,线段树来解决&#x…...
Ajax总结
引言 这是属于前端的部分了,先是学习了三件套(HTML,JS,CSS没怎么学,但是大概能理解)之后就开始学习这个了,学习之前应该要知道她是做什么的,但是我没有做这一步,之后会先了解为什么要学习这门技…...
Springboot使用外置的Servlet容器
嵌入式Servlet容器:应用打成可执行的jar 优点:简单、便携 缺点:默认不支持JSP、优化定制比较复杂 外置的Servlet容器:外面安装Tomcat---应用war包的方式打包 一.嵌入式tomcat启动项目步骤: 1.创建一个普通maven项目…...
金仓数据库物理备份和还原
差异备份:是复制上次全备份以来所有变更数据的一种备份。 增量备份:没有重复的备份数据,备份的数据量不大,备份所需的时间很短,备份速度快 考点 sys_rman工具(必考) 配置 sys_backup.conf 初…...
Python提取字符串中的json,时间,特定字符
1.整个字符串为json s{"time":"2014-10-14 12:00", "tid":12, "info_message":"我爱python"} _jsonjson.loads(s) print(_json) 执行结果: {time: 2014-10-14 12:00, tid: 12, info_message: 我爱python} 2…...
Android `android.graphics.drawable` 包深度解析:架构与设计模式
Android android.graphics.drawable 包深度解析:架构与设计模式 目录 引言Drawable 概述Drawable 的架构 Drawable 类层次结构Drawable 的核心方法Drawable 的设计模式 装饰者模式工厂模式状态模式常用 Drawable 子类解析 BitmapDrawableShapeDrawableLayerDrawableStateList…...
从提示词到共振:李继刚的AI沟通法则
摘要:在极客公园的演讲中,李继刚分享了他对提示词的深入研究,提出了通过场域和共振达到与AI深层次交流的策略。他分析了AI的存在属性,指出未来提示词将因AI进化而变得更为简洁和高效。 一、Prompt思考与总结 本文内容大多是源于…...
Redis字符串底层结构对数值型的支持常用数据结构和使用场景
字符串底层结构 SDS (Simple Dynamic Strings) 是 Redis 中用于实现字符串类型的一种数据结构。SDS 的设计目标是提供高效、灵活的字符串操作,同时避免传统 C 字符串的一些缺点。 struct sdshdr {int len; // 已使用的长度int free; // 未使用的长度char bu…...
Windows下Python+PyCharm的安装步骤及PyCharm的使用
Windows下PythonPyCharm的安装步骤及PyCharm的使用 文章目录 Windows下PythonPyCharm的安装步骤及PyCharm的使用一、Python的安装(1)环境准备(2)Python安装(3)pip组件的安装 二、PyCharm的安装(…...
oracle基础:中文字段排序详解
在数据库操作中,中文字段排序是一个常见但又容易被忽视的问题。默认情况下,Oracle 数据库的排序规则是基于 Unicode 编码的,这可能导致排序结果并不符合预期,比如按拼音、部首或笔画排序。本文将详细解析如何在 Oracle 中实现中文…...
网络安全专有名词详解_3
80.WAF 即为Web Application Firewall,即Web应用防火墙,通过执行一系列针对HTTP/HTTPS的安全策略来专门为Web应用提供保护的一款产品。 81.SOC Security Operations Center,翻译为安全运行中心,通过建立一套实时的资产风险模型&a…...
【C语言】库函数常见的陷阱与缺陷(三):内存分配函数[2]--calloc
C语言中的calloc函数是一个用于分配多个具有相同大小的内存块的函数,它在动态内存管理中扮演着重要角色。然而,在使用calloc时也存在一些陷阱与缺陷。 一、功能与常见用法 calloc(contiguous allocation)函数用于动态分配内存,相较于 malloc 函数,不仅能够在堆上为程序…...
CKA认证 | Day7 K8s存储
第七章 Kubernetes存储 1、数据卷与数据持久卷 为什么需要数据卷? 容器中的文件在磁盘上是临时存放的,这给容器中运行比较重要的应用程序带来一些问题。 问题1:当容器升级或者崩溃时,kubelet会重建容器,容器内文件会…...
.net core 的数据库编程
Python基础 Python是一种高级编程语言,由Guido van Rossum于1980年代后期发明,并于1991年首次发布。它以简洁的语法和易于阅读的代码风格著称,因而成为程序员和数据科学家等领域的热门选择。在这篇文章中,我们将深入探讨Python的…...
再生核希尔伯特空间(RKHS)上的分位回归
1. 基本定义和理论基础 1.1 再生核希尔伯特空间(RKHS) 给定一个非空集合 X \mathcal{X} X,一个希尔伯特空间 H \mathcal{H} H 称为再生核希尔伯特空间,如果存在一个函数 K : X X → R K: \mathcal{X} \times \mathcal{X} \rightarrow \mathbb{R} K…...
结构方程模型【SEM】:非线性、非正态、交互作用及分类变量分析
利用结构方程模型建模往往遇到很多‘特殊’情况:1)变量间为非直线关系;2)变量间存在交互作用;3)数据不满足正态分布;4)变量为非正态类型的数值变量,如0,1数据…...
不安全物联网的轻量级加密:综述
Abstract 本文综述了针对物联网(IoT)的轻量级加密解决方案。这项综述全面覆盖了从轻量级加密方案到不同类型分组密码的比较等多个方面。同时,还对硬件与软件解决方案之间的比较进行了讨论,并分析了当前最受信赖且研究最深入的分组…...
DeepSpeed 使用 LoRA 训练后文件结构详解
DeepSpeed 使用 LoRA 训练后文件结构详解 在大语言模型(LLM)的训练过程中,DeepSpeed 提供了强大的分布式训练能力,而 LoRA(Low-Rank Adaptation)通过参数高效微调技术显著减少了资源占用。完成训练后&…...
Mysql数据 新增、修改和删除操作时,这些变化如何被转换为Kafka消息?
Mysql数据 新增、修改和删除操作时,这些变化如何被转换为Kafka消息? 为了在FlinkCDC中配置MySQL同步到Kafka,并采用debezium-json数据格式,我们需要了解当执行新增、修改和删除操作时,这些变化如何被转换为Kafka消息。下面我们将详细介绍这些变化情况,并提供具体的数据样…...
高等数学 8.1向量及其线性运算
8.1 向量及其线性运算 文章目录 8.1 向量及其线性运算一、向量的概念向量的线性运算1.向量的加减法2.向量与数的乘法 三、空间直角坐标系四、利用坐标作向量的线性运算五、向量的模、方向角、投影1.向量的模与两点间的距离公式2.方向角与方向余弦3.向量在轴上的投影 一、向量的…...
向bash shell脚本传参
例子: ~ script % touch parameter.sh ~ script % chmod 755 parameter.sh ~ % vim parameter.shparameter.sh: #!/usr/bin/env bashecho the name of current script is $0echo the first parameter is $1echo the second parameter is $2echo all parameters: $…...
高精度算法:加减乘除 (学习笔记)
加法: 现有vector<int>a,b;并且已经输入了内容且倒置 vector<int> plus(vector<int>a,vector<int> b){ int as a.size(); int bs b.size(); vector<int>total; int carry 0; int ar 0, br 0; //读取位数 while (ar < as &am…...
JVM 主要组成部分与内存区域
一、JVM 主要组成部分: JVM的主要包含两个组件和两个子系统,分别为: (1)本地库接口(Native Interface):与native lib(本地方法库)交互,融合其他编程语言为Java所用,是与其它编程语言…...
10分钟掌握项目管理核心工具:WBS、甘特图、关键路径法全解析
一、引言 在项目管理的广阔天地里,犹如一场精心编排的交响乐演奏,每个乐器、每个音符都需精准配合才能奏响美妙乐章。而 WBS(工作分解结构)、甘特图、关键路径法无疑是这场交响乐中的关键乐章,它们从不同维度为项目管…...
python语音机器人(青云客免费api)
强调:不用登录注册,直接使用就好 青云客智能聊天机器人API python代码,直接可以运行: 1、安装库: pip install requests pyttsx3 SpeechRecognition sounddevice numpy scipy2、完整代码: import request…...
策略模式以及优化
使用场景 在一个条件语句中又包含了多个条件语句 具体策略类会过多 把抽象策略和具体策略放在一个枚举类里。 方法 exe() 相当于抽象策略,而A和B就相当于实现了抽象策略的具体策略 这样就只需要一个枚举类就可以解决具体策略类过多的问题 public enum Strategy {A{O…...
解决tomcat双击startup.bat乱码的几种方法
新环境,win10,今天下载了tomcat9.0.98,是压缩绿色版的,解压缩安装到了: D:\java\apache-tomcat-9.0.98 可以通过D:\java\apache-tomcat-9.0.98\bin\startup.bat双击来启动tomcat。 但是日志显示乱码。 后来找到了几种…...
计算机网络 (12)物理层下面的传输媒体
前言 计算机网络物理层下面的传输媒体是计算机网络设备之间的物理通路,也称为传输介质或传输媒介,并不包含在计算机网络体系结构中,而是处于物理层之下。 一、传输媒体的分类 导向型媒体:电磁波被导引沿着固体媒体传播。常见的导向…...
Spark生态圈
Spark 主要用于替代Hadoop中的 MapReduce 计算模型。存储依然可以使用 HDFS,但是中间结果可以存放在内存中;调度可以使用 Spark 内置的,也可以使用更成熟的调度系统 YARN 等。 Spark有完善的生态圈: Spark Core:实现了…...
如何计算相位差
如何计算相位差 假设我们有两个同频率的正弦信号: 这里两个信号的角频率w2πf是相同的,根据同频正弦信号相位差的计算方法,直接用两个信号的相位相减。 再来看利用波形图计算相位差的例子: 另一种计算方式:...
Bash Shell知识合集
1. chmod命令 创建一个bash shell脚本 hello.sh ~script $ touch hello.sh脚本创建完成后并不能直接执行,我们要用chmod命令授予它可执行的权限: ~script $ chmod 755 hello.sh授权后的脚本可以直接执行: ~script $ ./hello.sh2.指定运行…...
《信管通低代码信息管理系统开发平台》Windows环境安装说明
1 简介 《信管通低代码信息管理系统应用平台》提供多环境软件产品开发服务,包括单机、局域网和互联网。我们专注于适用国产硬件和操作系统应用软件开发应用。为事业单位和企业提供行业软件定制开发,满足其独特需求。无论是简单的应用还是复杂的系统&…...
如何查看服务器内存占用情况?
如何查看服务器的内存占用情况?你知道内存使用情况对服务器性能的重要性吗?内存是服务器运行的核心资源之一,了解内存的占用情况可以帮助你优化系统性能。 要查看服务器的内存占用情况,首先需要确定你使用的是哪种操作系统。不同…...
【源码】Sharding-JDBC源码分析之SQL中影子库ShadowSQLRouter路由的原理
Sharding-JDBC系列 1、Sharding-JDBC分库分表的基本使用 2、Sharding-JDBC分库分表之SpringBoot分片策略 3、Sharding-JDBC分库分表之SpringBoot主从配置 4、SpringBoot集成Sharding-JDBC-5.3.0分库分表 5、SpringBoot集成Sharding-JDBC-5.3.0实现按月动态建表分表 6、【…...
OCR实践-Table-Transformer
前言 书接上文 OCR实践—PaddleOCR Table-Transformer 与 PubTables-1M table-transformer,来自微软,基于Detr,在PubTables1M 数据集上进行训练,模型是在提出数据集同时的工作, paper PubTables-1M: Towards comp…...
代码随想录五刷day6
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言一、力扣144. 二叉树的前序遍历(递归)二、力扣144. 二叉树的前序遍历(迭代)三、力扣145. 二叉树的后序遍历(递归)四、力扣145. 二叉树的后序遍历(迭代)五、力扣…...
【自信息、信息熵、联合熵、条件熵、互信息】
文章目录 一、自信息 I(X)二、信息熵:衡量系统的混乱程度信息熵 H(X)联合熵 H(X,Y) 三、条件熵H(Y|X) 联合熵H(X,Y) - 信息熵H(X)四、互信息 I(X,Y)五、总结References 一、自信息 I(X) 自信息(Self-information) 是由香农提出的,用来衡量单一事件发生…...
我的秋招总结
我的秋招总结 个人背景 双非本,985硕,科班 准备情况 以求职为目的学习Java的时间大概一年。 八股,一开始主要是看B站黑马的八股文课程,背JavaGuide和小林coding还有面试鸭。 算法,250,刷了3遍左右 项目&…...
page_ref_freeze浅析
最近在研究struct page的引用计数refcount,看到有个page_ref_freeze()特性很有意思。用这篇博客记录一下。 本文分析基于linux4.19.195 static inline int page_ref_freeze(struct page *page, int count) {int ret likely(atomic_cmpxchg(&page->_refcoun…...
Python毕业设计选题:基于python的酒店推荐系统_django+hadoop
开发语言:Python框架:djangoPython版本:python3.7.7数据库:mysql 5.7数据库工具:Navicat11开发软件:PyCharm 系统展示 管理员登录 管理员功能界面 用户管理 酒店客房管理 客房类型管理 客房预定管理 用户…...
选择 SquashFS 作为启动分区的文件系统格式:详细教程
SquashFS 是一种高压缩率的只读文件系统,广泛用于嵌入式系统、Linux 发行版以及其他需要节省存储空间的场景。它特别适合用于启动分区、只读根文件系统(rootfs)等应用,因为它通过压缩技术极大地节省了存储空间。在本博客中,我们将详细介绍如何在 RK3568 等嵌入式设备上使用…...