深度学习之超分辨率算法——SRCNN
-
网络为基础卷积层
-
tensorflow 1.14
-
scipy 1.2.1
-
numpy 1.16
-
大概意思就是针对数据,我们先把图片按缩小因子照整数倍进行缩减为小图片,再针对小图片进行插值算法,获得还原后的低分辨率的图片作为标签。
-
main.py 配置文件
from model import SRCNN
from utils import input_setup
import numpy as np
import tensorflow as tf
import pprint
import osflags = tf.app.flags
# 设置轮次
flags.DEFINE_integer("epoch", 1000, "Number of epoch [1000]")
# 设置批次
flags.DEFINE_integer("batch_size", 128, "The size of batch images [128]")
# 设置image大小
flags.DEFINE_integer("image_size", 33, "The size of image to use [33]")
# 设置label
flags.DEFINE_integer("label_size", 21, "The size of label to produce [21]")
# 学习率
flags.DEFINE_float("learning_rate", 1e-4, "The learning rate of gradient descent algorithm [1e-4]")
# 图像颜色的尺寸
flags.DEFINE_integer("c_dim", 1, "Dimension of image color. [1]")
# 对输入图像进行预处理的比例因子大小
flags.DEFINE_integer("scale", 3, "The size of scale factor for preprocessing input image [3]")
# 步长
flags.DEFINE_integer("stride", 14, "The size of stride to apply input image [14]")
# 权重位置
flags.DEFINE_string("checkpoint_dir", "checkpoint", "Name of checkpoint directory [checkpoint]")
# 样本目录
flags.DEFINE_string("sample_dir", "sample", "Name of sample directory [sample]")
# 训练还是测试
flags.DEFINE_boolean("is_train", False, "True for training, False for testing [True]")
FLAGS = flags.FLAGS# 格式化打印
pp = pprint.PrettyPrinter()def main(_):# 打印参数pp.pprint(flags.FLAGS.__flags)# 没有就新建~if not os.path.exists(FLAGS.checkpoint_dir):os.makedirs(FLAGS.checkpoint_dir)if not os.path.exists(FLAGS.sample_dir):os.makedirs(FLAGS.sample_dir)# Session提供了Operation执行和Tensor求值的环境;with tf.Session() as sess:srcnn = SRCNN(sess,image_size=FLAGS.image_size,label_size=FLAGS.label_size,batch_size=FLAGS.batch_size,c_dim=FLAGS.c_dim,checkpoint_dir=FLAGS.checkpoint_dir,sample_dir=FLAGS.sample_dir)srcnn.train(FLAGS)if __name__ == '__main__':tf.app.run()
from utils import (read_data,input_setup,imsave,merge
)
import time
import os
import matplotlib.pyplot as plt
import numpy as np
import tensorflow as tftry:xrange
except:xrange = rangeclass SRCNN(object):# 模型初始化def __init__(self,sess,image_size=33,label_size=21,batch_size=128,c_dim=1,checkpoint_dir=None,sample_dir=None):self.sess = sess# 判断灰度图self.is_grayscale = (c_dim == 1)self.image_size = image_sizeself.label_size = label_sizeself.batch_size = batch_sizeself.c_dim = c_dimself.checkpoint_dir = checkpoint_dirself.sample_dir = sample_dirself.build_model()def build_model(self):# tf.placeholder(# dtype,# shape = None,# name = None# )# 定义image,labels 输入形式 N W H Cself.images = tf.placeholder(dtype=tf.float32, shape=[None, self.image_size, self.image_size, self.c_dim], name='images')self.labels = tf.placeholder(tf.float32, [None, self.label_size, self.label_size, self.c_dim], name='labels')# tf.Variable(initializer, name), 参数initializer是初始化参数,name是可自定义的变量名称,# shape为[filter_height, filter_width, in_channel, out_channels]# 构建模型参数self.weights = {'w1': tf.Variable(initial_value=tf.random_normal([9, 9, 1, 64], stddev=1e-3), name='w1'),'w2': tf.Variable(initial_value=tf.random_normal([1, 1, 64, 32], stddev=1e-3), name='w2'),'w3': tf.Variable(initial_value=tf.random_normal([5, 5, 32, 1], stddev=1e-3), name='w3')}# the dim of bias== c_dimself.biases = {'b1': tf.Variable(tf.zeros([64]), name='b1'),'b2': tf.Variable(tf.zeros([32]), name='b2'),'b3': tf.Variable(tf.zeros([1]), name='b3')}# 构建模型 返回MHWCself.pred = self.model()# Loss function (MSE)self.loss = tf.reduce_mean(tf.square(self.labels - self.pred))# 保存和加载模型# 如果只想保留最新的4个模型,并希望每2个小时保存一次,self.saver = tf.train.Saver(max_to_keep=4,keep_checkpoint_every_n_hours=2)def train(self, config):if config.is_train:# 训练状态input_setup(self.sess, config)else:nx, ny = input_setup(self.sess, config)if config.is_train:data_dir = os.path.join('./{}'.format(config.checkpoint_dir), "train.h5")else:data_dir = os.path.join('./{}'.format(config.checkpoint_dir), "test.h5")train_data, train_label = read_data(data_dir)# Stochastic gradient descent with the standard backpropagationself.train_op = tf.train.GradientDescentOptimizer(config.learning_rate).minimize(self.loss)tf.initialize_all_variables().run()counter = 0start_time = time.time()if self.load(self.checkpoint_dir):print(" [*] Load SUCCESS")else:print(" [!] Load failed...")if config.is_train:print("Training...")for ep in xrange(config.epoch):# Run by batch imagesbatch_idxs = len(train_data) // config.batch_sizefor idx in xrange(0, batch_idxs):batch_images = train_data[idx * config.batch_size: (idx + 1) * config.batch_size]batch_labels = train_label[idx * config.batch_size: (idx + 1) * config.batch_size]counter += 1_, err = self.sess.run([self.train_op, self.loss],feed_dict={self.images: batch_images, self.labels: batch_labels})if counter % 10 == 0:print("Epoch: [%2d], step: [%2d], time: [%4.4f], loss: [%.8f]" \% ((ep + 1), counter, time.time() - start_time, err))if counter % 500 == 0:self.save(config.checkpoint_dir, counter)else:print("Testing...")# print(train_data.shape)# print(train_label.shape)# print("---------")result = self.pred.eval({self.images: train_data, self.labels: train_label})# print(result.shape)result = merge(result, [nx, ny])result = result.squeeze()image_path = os.path.join(os.getcwd(), config.sample_dir)image_path = os.path.join(image_path, "test_image.png")imsave(result, image_path)def model(self):# input : 输入的要做卷积的图片,要求为一个张量,shape为 [ batch, in_height, in_width, in_channel ],其中batch为图片的数量,in_height 为图片高度,in_width 为图片宽度,in_channel 为图片的通道数,灰度图该值为1,彩色图为3。(也可以用其它值,但是具体含义不是很理解)# filter: 卷积核,要求也是一个张量,shape为 [ filter_height, filter_width, in_channel, out_channels ],其中 filter_height 为卷积核高度,filter_width 为卷积核宽度,in_channel 是图像通道数 ,和 input 的 in_channel 要保持一致,out_channel 是卷积核数量。# strides: 卷积时在图像每一维的步长,这是一个一维的向量,[ 1, strides, strides, 1],第一位和最后一位固定必须是1# padding: string类型,值为“SAME” 和 “VALID”,表示的是卷积的形式,是否考虑边界。"SAME"是考虑边界,不足的时候用0去填充周围,"VALID"则不考虑# use_cudnn_on_gpu: bool类型,是否使用cudnn加速,默认为true# padding = “SAME”输入和输出大小关系如下:输出大小等于输入大小除以步长向上取整,s是步长大小;# padding = “VALID”输入和输出大小关系如下:输出大小等于输入大小减去滤波器大小加上1,最后再除以步长(f为滤波器的大小,s是步长大小)。conv1 = tf.nn.relu(tf.nn.conv2d(self.images, self.weights['w1'], strides=[1, 1, 1, 1], padding='VALID',use_cudnn_on_gpu=True) + self.biases['b1'])conv2 = tf.nn.relu(tf.nn.conv2d(conv1, self.weights['w2'], strides=[1, 1, 1, 1], padding='VALID',use_cudnn_on_gpu=True) + self.biases['b2'])conv3 = tf.nn.conv2d(conv2, self.weights['w3'], strides=[1, 1, 1, 1], padding='VALID',use_cudnn_on_gpu=True) + self.biases['b3']return conv3def save(self, checkpoint_dir, step):model_name = "SRCNN.model"model_dir = "%s_%s" % ("srcnn", self.label_size)# 目录checkpoint_dir = os.path.join(checkpoint_dir, model_dir)# 不存在就新建if not os.path.exists(checkpoint_dir):os.makedirs(checkpoint_dir)# 保存# 参数'''sess,save_path,global_step=None,latest_filename=None,meta_graph_suffix="meta",write_meta_graph=True,write_state=True,strip_default_attrs=False,save_debug_info=False)'''self.saver.save(self.sess,os.path.join(checkpoint_dir, model_name),global_step=step)def load(self, checkpoint_dir):print(" [*] Reading checkpoints...")model_dir = "%s_%s" % ("srcnn", self.label_size)# 加载模型checkpoint_dir = os.path.join(checkpoint_dir, model_dir)# 通过checkpoint文件找到模型文件名ckpt = tf.train.get_checkpoint_state(checkpoint_dir)if ckpt and ckpt.model_checkpoint_path:# 返回path最后的文件名。如果path以/或\结尾,那么就会返回空值。即os.path.split(path)的第二个元素。ckpt_name = os.path.basename(ckpt.model_checkpoint_path)self.saver.restore(self.sess, os.path.join(checkpoint_dir, ckpt_name))# 加载成功return Trueelse:# 加载失败return False
- utils.py 配置工具函数
"""
Scipy version > 0.18 is needed, due to 'mode' option from scipy.misc.imread function
"""import os
import glob
import h5py
import random
import matplotlib.pyplot as pltfrom PIL import Image # for loading images as YCbCr format
import scipy.misc
import scipy.ndimage
import numpy as npimport tensorflow as tftry:xrange
except:xrange = rangeFLAGS = tf.app.flags.FLAGSdef read_data(path):"""Read h5 format data fileArgs:path: file path of desired filedata: '.h5' file format that contains train data valueslabel: '.h5' file format that contains train label values"""with h5py.File(path, 'r') as hf:data = np.array(hf.get('data'))label = np.array(hf.get('label'))return data, labeldef preprocess(path, scale=3):"""Preprocess single image file(1) Read original image as YCbCr format (and grayscale as default)(2) Normalize(3) Apply image file with bicubic interpolationArgs:path: file path of desired fileinput_: image applied bicubic interpolation (low-resolution)label_: image with original resolution (high-resolution)"""# 读取灰度图image = imread(path, is_grayscale=True)label_ = modcrop(image, scale)# Must be normalized# 归一化image = image / 255.label_ = label_ / 255.# zoom:类型为float或sequence,沿轴的缩放系数。 如果float,每个轴的缩放是相同的。 如果sequence,zoom应包含每个轴的一个值。# output:放置输出的数组,或返回数组的dtype# order:样条插值的顺序,默认为3.顺序必须在0-5范围内。# prefilter: bool, optional 。参数预滤波器确定输入是否在插值之前使用spline_filter进行预过滤(对于 > 1# 的样条插值所必需的)。 如果为False,则假定输入已被过滤。 默认为True。input_ = scipy.ndimage.interpolation.zoom(input=label_,zoom=(1. / scale), prefilter=False)input_ = scipy.ndimage.interpolation.zoom(input=input_,zoom=(scale / 1.), prefilter=False)return input_, label_def prepare_data(sess, dataset):"""Args:dataset: choose train dataset or test datasetFor train dataset, output data would be ['.../t1.bmp', '.../t2.bmp', ..., '.../t99.bmp']dataset:"Train" or "Test":to choose the data is train or test"""if FLAGS.is_train:filenames = os.listdir(dataset)# 获取数据目录data_dir = os.path.join(os.getcwd(), dataset)data = glob.glob(os.path.join(data_dir, "*.bmp"))else:# 获取测试集路径data_dir = os.path.join(os.sep, (os.path.join(os.getcwd(), dataset)), "Set5")data = glob.glob(os.path.join(data_dir, "*.bmp"))# 返回文件目录return datadef make_data(sess, data, label):"""Make input data as h5 file formatDepending on 'is_train' (flag value), savepath would be changed."""if FLAGS.is_train:savepath = os.path.join(os.getcwd(), 'checkpoint/train.h5')else:savepath = os.path.join(os.getcwd(), 'checkpoint/test.h5')with h5py.File(savepath, 'w') as hf:hf.create_dataset('data', data=data)hf.create_dataset('label', data=label)def imread(path, is_grayscale=True):"""Read image using its path.Default value is gray-scale, and image is read by YCbCr format as the paper said."""if is_grayscale:return scipy.misc.imread(path, flatten=True, mode='YCbCr').astype(np.float)else:return scipy.misc.imread(path, mode='YCbCr').astype(np.float)def modcrop(image, scale=3):"""To scale down and up the original image, first thing to do is to have no remainder while scaling operation.We need to find modulo of height (and width) and scale factor.Then, subtract the modulo from height (and width) of original image size.There would be no remainder even after scaling operation.要缩小和放大原始图像,首先要做的是在缩放操作时没有剩余。我们需要找到高度(和宽度)和比例因子的模。然后,从原始图像的高度(和宽度)中减去模。即使经过缩放操作,也不会有余数。"""if len(image.shape) == 3:# 取整h, w, _ = image.shapeh = h - np.mod(h, scale)w = w - np.mod(w, scale)image = image[0:h, 0:w, :]else:h, w = image.shapeh = h - np.mod(h, scale)w = w - np.mod(w, scale)image = image[0:h, 0:w]return imagedef input_setup(sess, config):"""Read image files and make their sub-images and saved them as a h5 file format."""# Load data pathif config.is_train:data = prepare_data(sess, dataset="Train")else:data = prepare_data(sess, dataset="Test")sub_input_sequence = []sub_label_sequence = []# 计算paddingpadding = abs(config.image_size - config.label_size) / 2 # 6if config.is_train:for i in xrange(len(data)):# TODO 获取原图和低分辨率还原标签input_, label_ = preprocess(data[i], config.scale)if len(input_.shape) == 3:h, w, _ = input_.shapeelse:h, w = input_.shapefor x in range(0, h - config.image_size + 1, config.stride):for y in range(0, w - config.image_size + 1, config.stride):sub_input = input_[x:x + config.image_size, y:y + config.image_size] # [33 x 33]sub_label = label_[x + int(padding):x + int(padding) + config.label_size,y + int(padding):y + int(padding) + config.label_size] # [21 x 21]# Make channel valuesub_input = sub_input.reshape([config.image_size, config.image_size, 1])sub_label = sub_label.reshape([config.label_size, config.label_size, 1])sub_input_sequence.append(sub_input)sub_label_sequence.append(sub_label)else:input_, label_ = preprocess(data[1], config.scale)if len(input_.shape) == 3:h, w, _ = input_.shapeelse:h, w = input_.shape# Numbers of sub-images in height and width of image are needed to compute merge operation.nx = ny = 0for x in range(0, h - config.image_size + 1, config.stride):# 保存索引nx += 1ny = 0for y in range(0, w - config.image_size + 1, config.stride):ny += 1sub_input = input_[x:x + config.image_size, y:y + config.image_size] # [33 x 33]sub_label = label_[x + int(padding):x + int(padding) + config.label_size,y + int(padding):y + int(padding) + config.label_size] # [21 x 21]sub_input = sub_input.reshape([config.image_size, config.image_size, 1])sub_label = sub_label.reshape([config.label_size, config.label_size, 1])sub_input_sequence.append(sub_input)sub_label_sequence.append(sub_label)"""len(sub_input_sequence) : the number of sub_input (33 x 33 x ch) in one image(sub_input_sequence[0]).shape : (33, 33, 1)"""# Make list to numpy array. With this transformarrdata = np.asarray(sub_input_sequence) # [?, 33, 33, 1]arrlabel = np.asarray(sub_label_sequence) # [?, 21, 21, 1]make_data(sess, arrdata, arrlabel)if not config.is_train:return nx, nydef imsave(image, path):return scipy.misc.imsave(path, image)def merge(images, size):# 合并图片h, w = images.shape[1], images.shape[2]img = np.zeros((h * size[0], w * size[1], 1))for idx, image in enumerate(images):i = idx % size[1]j = idx // size[1]img[j * h:j * h + h, i * w:i * w + w, :] = imagereturn img
-
原图
-
效果图
-
相关文章:
深度学习之超分辨率算法——SRCNN
网络为基础卷积层 tensorflow 1.14 scipy 1.2.1 numpy 1.16 大概意思就是针对数据,我们先把图片按缩小因子照整数倍进行缩减为小图片,再针对小图片进行插值算法,获得还原后的低分辨率的图片作为标签。 main.py 配置文件 from model im…...
本机如何连接虚拟机MYSQL
要让本机(主机)连接到虚拟机上的 MySQL 数据库,你需要确保虚拟机和主机之间的网络连接正常,并且 MySQL 配置允许外部连接。以下是实现本机连接虚拟机 MySQL 的步骤: 步骤 1:确认虚拟机与本机的网络连接 确…...
mac 安装graalvm
Download GraalVM 上面链接选择jdk的版本 以及系统的环境下载graalvm的tar包 解压tar包 tar -xzf graalvm-jdk-<version>_macos-<architecture>.tar.gz 移入java的文件夹目录 sudo mv graalvm-jdk-<version> /Library/Java/JavaVirtualMachines 设置环境变…...
大模型日报 2024-12-19
大模型日报 2024-12-19 大模型资讯 标题:OpenAI发布季第十天:ChatGPT登陆电话、WhatsApp,你可以给ChatGPT真正打电话了 摘要:OpenAI于2024年12月18日发布了ChatGPT的新功能,用户可以通过电话和WhatsApp与ChatGPT进行互…...
【数据结构练习题】链表与LinkedList
顺序表与链表LinkedList 选择题链表面试题1. 删除链表中等于给定值 val 的所有节点。2. 反转一个单链表。3. 给定一个带有头结点 head 的非空单链表,返回链表的中间结点。如果有两个中间结点,则返回第二个中间结点。4. 输入一个链表,输出该链…...
使用 acme.sh 申请域名 SSL/TLS 证书完整指南
使用 acme.sh 申请域名 SSL/TLS 证书完整指南 简介为什么选择 acme.sh 和 ZeroSSL?前置要求安装过程 步骤一:安装 acme.sh步骤二:配置 ZeroSSL 证书申请 方法一:手动 DNS 验证(推荐新手使用)方法二…...
微信小程序开发入门
实现滚动 需要设置高度和边框 轮播图 差值表达式( {{表达式的值}} ),info数据要写到js文件的data数据中 小程序中常用的事件...
【LeetCode】9、回文数
【LeetCode】9、回文数 文章目录 一、数学: 除法和取模1.1 数学: 除法和取模 二、多语言解法 一、数学: 除法和取模 1.1 数学: 除法和取模 例如 15251, offset 也是五位数的 10000 先判断首1和尾1, 再变为 525, offset 变为 100 再判断首5和尾5, 再变为 2, offset 变为 1 整个…...
面试题整理9----谈谈对k8s的理解2
面试题整理9----谈谈对k8s的理解2 1. Service 资源1.1 ServiceClusterIPNodePortLoadBalancerIngressExternalName 1.2 Endpoints1.3 Ingress1.4 EndpointSlice1.5 IngressClass 2. 配置和存储资源2.1 ConfigMap2.2 Secret2.3 PersistentVolume2.4 PersistentVolumeClaim2.5 St…...
fpga系列 HDL:Quartus II PLL (Phase-Locked Loop) IP核 (Quartus II 18.0)
在 Quartus II 中使用 PLL (Phase-Locked Loop) 模块来将输入时钟分频或倍频,并生成多个相位偏移或频率不同的时钟信号: 1. 生成 PLL 模块 在 Quartus II 中: 打开 IP Components。 file:///C:/intelFPGA_lite/18.0/quartus/common/help/w…...
中国量子计算机领域的发展现状与展望
中国量子计算机领域的发展现状与展望 摘要 随着全球科技竞争的加剧,量子计算作为前沿技术领域备受瞩目。中国在量子计算机的研发方面取得了显著进展,本文将深入探讨中国量子计算机领域的现状、取得的成果、面临的挑战以及未来的发展方向,并…...
html(超文本标记语言)
声明! 学习视频来自B站up主 **泷羽sec** 有兴趣的师傅可以关注一下,如涉及侵权马上删除文章,笔记只是方便各位师傅的学习和探讨,文章所提到的网站以及内容,只做学习交流,其他均与本人以及泷羽sec团队无关&…...
如何在Windows系统上安装和配置Maven
Maven是一个强大的构建和项目管理工具,广泛应用于Java项目的自动化构建、依赖管理、项目构建生命周期控制等方面。在Windows系统上安装Maven并配置环境变量,是开发者开始使用Maven的第一步。本文将详细介绍如何在Windows系统上安装和配置Maven࿰…...
基于Python Scrapy的豆瓣Top250电影爬虫程序
Scrapy安装 Python实现一个简单的爬虫程序(爬取图片)_python简单扒图脚本-CSDN博客 创建爬虫项目 创建爬虫项目: scrapy startproject test_spider 创建爬虫程序文件: >cd test_spider\test_spider\spiders >scrapy g…...
mysql,数据库数据备份
mysql 一.数据库备份概念1.备份分类2.备份策略3.备份三要素二.完全备份操作1.物理备份(还原),冷备份2.逻辑备份,温备份三.percona软件的xtrabackup工具备份(2备份,3还原),增量,差异1.percona软件安装2.增量备份(还原)3.差异备份四.binlog日志1.binlog日志概念2.查看binlog日志信…...
模仿elementui的Table,实现思路
vue2子组件使用render,给子子组件插槽传值 和elementui的Table一样使用render 在 Vue 2 中,子组件使用render函数向子子组件插槽传值可以通过以下步骤实现: 1、创建子组件 首先创建一个子组件,在子组件中使用render函数来渲染内容…...
Android Studio AI助手---Gemini
从金丝雀频道下载最新版 Android Studio,以利用所有这些新功能,并继续阅读以了解新增内容。 Gemini 现在可以编写、重构和记录 Android 代码 Gemini 不仅仅是提供指导。它可以编辑您的代码,帮助您快速从原型转向实现,实现常见的…...
大模型+安全实践之春天何时到来?
引子:距《在大模型实践旅途中摸了下上帝的脚指头》一文发布近一年,2024年笔者继续全情投入在大模型+安全上,深度参与了一些应用实践,包括安全大模型首次大规模应用在国家级攻防演习、部分项目的POC直到项目落地,也推动了一些场景安全大模型应用从0到3的孵化上市。这一年也…...
ACL技术---访问控制列表
是一种策略。 对于网络中的流量而言,通常有两种处理方式 允许 拒绝 ACL 的原理 配置了 ACL 的网络设备会根据事先设定好的报文匹配规则对经过该设备的报文进行匹配,然后对报 文执行预先设定好的处理动作。 ACL 的功能 访问控制:在设备…...
第25周:文献阅读
目录 摘要 Abstract 文献阅读 现有问题 提出方法 创新点 方法论 实验研究 数据集 数据预处理 仿真实验 评价指标 实验结果分析 总结 摘要 本篇论文提出了一种基于深度学习框架的风速预测方法——SSA-BiLSTM网络,旨在提高风速预测的精确性。研究使…...
BiTCN-BiGRU基于双向时间卷积网络结合双向门控循环单元的数据多特征分类预测(多输入单输出)
Matlab实现BiTCN-BiGRU基于双向时间卷积网络结合双向门控循环单元的数据多特征分类预测(多输入单输出) 目录 Matlab实现BiTCN-BiGRU基于双向时间卷积网络结合双向门控循环单元的数据多特征分类预测(多输入单输出)分类效果基本描述…...
docker数据卷
什么是数据卷? 在容器中是无法通过vi命令对一个容器中的资源做修改的,这个时候就需要通过数据卷将文件中的内容映射到宿主机,在宿主机修改的文件会更新到容器中,并且容器被删除后不会把数据卷删除,数据卷中的数据会被持…...
Linux下基于最新稳定版ESP-IDF5.3.2开发esp32s3入门任务间的通讯-信号量【入门三】
继续上一篇任务创建 【Linux下基于最新稳定版ESP-IDF5.3.2开发esp32s3入门任务创建【入门二】-CSDN博客】 今天要实现再创建一个任务。【二值和互斥都进行测试】 ①、通过任务A发送一个信号量,另一个任务得到信号量后再发送helloworld。 ②、两个任务通过互斥信…...
使用C#绘制具有平滑阴影颜色的曼德布洛特集分形
示例使用复数类在 C# 中轻松绘制曼德布洛特集分形解释了如何通过迭代方程绘制曼德布洛特集:...
Unittest01|TestCase
一、入门 1、新建测试文件 打开pycharm→左上角新建项目→选择项目路径→选择python解释器→创建→点击新建好的项目,右键新建python文件→测试文件(py文件)命名必须以test开头 2、创建测试用例 定义测试类:导入unittest模块→…...
Django实现异步视图asyncio请求
随着现代Web应用程序对性能和响应速度的需求不断增加,开发者们越来越倾向于采用异步编程来提升应用的效率和用户体验。在传统的Web开发框架中,通常采用同步请求方式,这意味着每一个请求都需要等待前一个请求完成后才能继续处理。对于高并发的请求,可能会出现性能瓶颈。而Dj…...
Apache Samza开源的分布式流处理框架
Apache Samza 是一个开源的分布式流处理框架,用于处理实时数据流和分布式任务。它最初由 LinkedIn 开发,并在 2014 年捐赠给 Apache 软件基金会。Samza 的设计目标是为开发人员提供一个易用、可靠、高效的流处理工具。以下是其关键特点和架构的简介: 核心特点 简单的编程模…...
Linux实验报告5-shell脚本编程进阶
目录 一:实验目的 二:实验内容 1 编写脚本,实现将当前目录中所有子目录的名称输出到屏幕上。 2 首先以你的姓氏的拼音为开头在当前用户的主目录下新建3个文件和2个子目录,如zi1,zi2,zi3以及子目录zi.d和…...
YOLO系列正传(四)YOLOv3论文精解(下)——损失函数推导与其他优化项
系列文章 YOLO系列基础 YOLO系列基础合集——小白也看得懂的论文精解-CSDN博客 YOLO系列正传 YOLO系列正传(一)类别损失与MSE损失函数、交叉熵损失函数-CSDN博客 YOLO系列正传(二)YOLOv3论文精解(上)——从FPN到darknet-53-C…...
【漏洞复现】CVE-2023-37461 Arbitrary File Writing
漏洞信息 NVD - cve-2023-37461 Metersphere is an opensource testing framework. Files uploaded to Metersphere may define a belongType value with a relative path like ../../../../ which may cause metersphere to attempt to overwrite an existing file in the d…...
【OpenCV计算机视觉】图像处理——平滑
本篇文章记录我学习【OpenCV】图像处理中关于“平滑”的知识点,希望我的分享对你有所帮助。 目录 一、什么是平滑处理 1、平滑的目的是什么? 2、常见的图像噪声 (1)椒盐噪声 编辑(2) 高斯噪声 &a…...
【java面向对象编程】第七弹----Object类、类变量与类方法
笔上得来终觉浅,绝知此事要躬行 🔥 个人主页:星云爱编程 🔥 所属专栏:javase 🌷追光的人,终会万丈光芒 🎉欢迎大家点赞👍评论📝收藏⭐文章 目录 一、Object类 1.1equa…...
大模型微调---Prompt-tuning微调
目录 一、前言二、Prompt-tuning实战2.1、下载模型到本地2.2、加载模型与数据集2.3、处理数据2.4、Prompt-tuning微调2.5、训练参数配置2.6、开始训练 三、模型评估四、完整训练代码 一、前言 Prompt-tuning通过修改输入文本的提示(Prompt)来引导模型生…...
Connecting to Oracle 11g Database in Python
# encoding: utf-8 # 版权所有 2024 涂聚文有限公司 # 许可信息查看:言語成了邀功盡責的功臣,還需要行爲每日來值班嗎 # 描述:python -m pip install oracledb # python -m pip install cx_Oracle --upgrade # pip install cx_Oracle # Autho…...
16.2、网络安全风险评估技术与攻击
目录 网络安全风险评估技术方法与工具 网络安全风险评估技术方法与工具 资产信息收集,可以通过调查表的形式把我们各类的资产信息进行一个统计和收集,掌握被评估对象的重要资产分布,进而分析这些资产关联的业务面临的安全威胁以及存在的安全…...
Windows脚本清理C盘缓存
方法一:使用power文件.ps1的文件 脚本功能 清理临时文件夹: 当前用户的临时文件夹(%Temp%)。系统临时文件夹(C:\Windows\Temp)。 清理 Windows 更新缓存: 删除 Windows 更新下载缓存࿰…...
ChromeOS 131 版本更新
ChromeOS 131 版本更新 1. ChromeOS Flex 自动注册 在 ChromeOS 131 中,ChromeOS Flex 的自动注册功能现已允许大规模部署 ChromeOS Flex 设备。与 ChromeOS 零接触注册类似,自动注册将通过组织管理员创建的注册令牌嵌入到 ChromeOS Flex 镜像中。这将…...
PDF24 Creator免费版
PDF点击上方"蓝字"关注我们 01、前言 >>> 官网:https://tools.pdf24.org/zh/creator PDF24 Creator完全免费,没有任何限制。企业也能免费用。 不可以,PDF24 Creator只能装在Windows系统上。目前不支持Linux和Mac。 PDF24…...
网络安全之访问控制
简介 同一分布式环境下,同一用户可能具有多个应用服务器的访问授权,同一应用服务器也有多个授权访问的用户,同一用户在一次事务中可能需要访问多个授权访问的应用服务器,应用服务器可能还需要对访问用户进行身份鉴别。为了实现这…...
vtie项目中使用到了TailwindCSS,如何打包成一个单独的CSS文件(优化、压缩)
在不依赖 Vite 或其他构建工具的情况下,使用 TailwindCSS CLI 快速生成独立的 CSS 文件是一种简单高效的方法,适合需要纯样式文件的场景。 这个项目中,使用到了tailwindCss, 需要把里面的样式打包出来,给其他项目用。 使用命令生…...
前端登录注册页面springboot+vue2全开发!
需求目标: 有“登录界面”和“注册界面”以及“功能操作界面”: 我们打开程序会自动进入“登录界面”,如果密码输入正确则直接进入“功能操作界面”,在“登录界面”我们可以点击注册进入“注册页面”,注册好了可以再跳…...
批量提取zotero的论文构建知识库做问答的大模型(可选)——含转存PDF-分割统计PDF等
文章目录 提取zotero的PDF上传到AI平台保留文件名代码分成20个PDF视频讲解 提取zotero的PDF 右键查看目录 发现目录为 C:\Users\89735\Zotero\storage 写代码: 扫描路径‘C:\Users\89735\Zotero\storage’下面的所有PDF文件,全部复制一份汇总到"C:\Users\89735\Downl…...
3 JDK 常见的包和BIO,NIO,AIO
JDK常见的包 java.lang:系统基础类 java.io:文件操作相关类,比如文件操作 java.nio:为了完善io包中的功能,提高io性能而写的一个新包 java.net:网络相关的包 java.util:java辅助类,特别是集合类 java.sql:数据库操作类 IO流 按照流的流向分…...
解决Apache/2.4.39 (Win64) PHP/7.2.18 Server at localhost Port 80问题
配置一下apache里面的配置文件:httpd.conf 和 httpd.vhosts.conf httpd.conf httpd-vhosts.conf 重启服务 展示: 浏览器中中文乱码问题:...
带有 Elasticsearch 和 Langchain 的 Agentic RAG
作者:来自 Elastic Han Xiang Choong 讨论并实现 Elastic RAG 的代理流程,其中 LLM 选择调用 Elastic KB。 更多阅读:Elasticsearch:基于 Langchain 的 Elasticsearch Agent 对文档的搜索。 简介 代理是将 LLM 应用于实际用例的…...
【数据结构与算法】深度优先搜索:树与图的路径探寻之道
一、引言 在计算机科学领域,树与图的路径搜索是一个基础且重要的问题,而深度优先搜索算法(Depth First Search,简称 DFS)则是解决此类问题的经典算法之一。深度优先搜索算法通过从起始节点开始,沿着一条路径…...
vue3项目结合Echarts实现甘特图(可拖拽、选中等操作)
效果图: 图一:选中操作 图二:上下左右拖拽操作 本案例在echarts示例机场航班甘特图的基础上修改 封装ganttEcharts组件,测试数据 airport-schedule.jsonganttEcharts代码: 直接复制粘贴可测…...
【EXCEL 逻辑函数】AND、OR、XOR、NOT、IF、IFS、IFERROR、IFNA、SWITCH
目录 AND:当所有条件都为真时返回 TRUE,否则返回 FALSE OR:当任一条件为真时返回 TRUE,否则返回 FALSE XOR:当奇数个条件为真时返回 TRUE,否则返回 FALSE NOT :反转逻辑值 IF:根…...
单片机长耗时前后台任务优化
代码: void Task_10ms(void) {... }//改 void Task_2ms(void) {static uint8_t s_state 0switch(s_state){case 0:....s_state 1;break;case 1:....s_state 2;break;case 3:....s_state 1;break;default: //此段可以去除s_state 0;break; } } 参考链接 MCU长…...
java引入jedis并且关于开放redis端口问题
博主主页: 码农派大星. 数据结构专栏:Java数据结构 数据库专栏:数据库 JavaEE专栏:JavaEE 软件测试专栏:软件测试 关注博主带你了解更多知识 目录 1. 引入jedis 编辑 2. 关于java客户端开放redis端口问题 3. 连接redis服务器 redis服务器在官网公开了使用的协议: resp…...