深度学习与 PyTorch 基础
笔记
1 深度学习简介
1.1 深度学习概念
-
深度学习是机器学习的一类算法, 以人工神经网络为结构, 可以实现自动提取特征
-
深度学习核心思想是人工神经网络为结构, 自动提取特征
1.2 深度学习特点
-
自动提取特征
-
解释性差
-
大量数据和高性能计算能力
-
非线性转换(引入非线性因素)
1.3 深度学习模型
-
ANN 人工神经网络 感知机
-
CNN 卷积神经网络 图像/视频
-
RNN 循环神经网络 NLP
-
transformer RNN衍生出来的
-
自编学习器
-
...
1.4 深度学习应用场景
-
自然语言处理NLP
-
生成式AI AIGC 大模型
-
机器翻译
-
语音识别
-
...
-
-
计算机视觉CV
-
图像识别
-
面部解锁
-
视频合成
-
...
-
-
推荐系统
-
电影
-
音乐
-
文章
-
视频
-
商品
-
2 PyTorch框架简介
-
pytorch是深度学习的框架, python的第三方包, 数据是以张量类型存在
-
pytorch特点
-
数据类型是张量类型
-
自动微分模块, 自动求导/梯度
-
可以在GPU/TPU/NPU上运行, 加速运行
-
兼容各种平台 系统/硬件(显卡)
-
-
pytorch目前更新到2.5版本
3 张量创建
3.1 什么是张量
-
张量是矩阵, 可以是多维
-
0维->标量
-
1维->[1 2 3 4 5]
-
2维->[[1 2 3],[4 5 6]]
-
3维...
-
-
张量是通过类创建出来的对象, 提供各种方法和属性
3.2 基本创建方式
-
torch.tensor(data=): 指定数据
-
torch.Tensor(data=, size=): 指定数据或形状
-
torch.IntTensor(data=)/FloatTensor(): 指定数据
import torch import numpy as np # torch.tensor(data=, dtype=,): 根据指定数据或指定元素类型创建张量 # data: 数据 # dtype: 元素类型 def dm01():list1 = [[1., 2, 3], [4, 5, 6]] # 创建的张量为float32int1 = 10# array默认类型是float64, 所以创建的张量为float64n1 = np.array([[1., 2., 3.], [4., 5., 6.]])t1 = torch.tensor(data=list1)t2 = torch.tensor(data=int1)t3 = torch.tensor(data=n1)print('t1的值->', t1)print('t1类型->', type(t1))print('t1元素类型->', t1.dtype)print('t2的值->', t2)print('t2类型->', type(t2))print('t3的值->', t3)print('t3类型->', type(t3)) # torch.Tensor(data=, size=): 根据指定数据或指定形状创建张量 # data: 数据 # size: 形状, 接收元组 (0轴, 1轴, ...) -> 元组有多少个元素就是多少维张量, 对应维度上值就是数据个数 def dm02():# 指定数据t1 = torch.Tensor(data=[[1.1, 1.2, 1.3], [2.2, 2.3, 2.4]])print('t1的值->', t1)print('t1类型->', type(t1))# 指定形状t2 = torch.Tensor(size=(2, 3))print('t2的值->', t2)print('t2类型->', type(t2)) # torch.IntTensor(data=)/LongTensor()/FloatTensor()/DoubleTensor(): 创建指定类型的张量 # data: 数据 def dm03():# 如果元素类型不是指定类型, 会自动转换t1 = torch.IntTensor([[1.1, 2, 3.7], [4, 5, 6]])t2 = torch.FloatTensor([[1.1, 2, 3.7], [4, 5, 6]])print('t1的值->', t1)print('t1类型->', type(t1))print('t1元素类型->', t1.dtype)print('t2的值->', t2)print('t2类型->', type(t2))print('t2元素类型->', t2.dtype) if __name__ == '__main__':dm01()# dm02()# dm03()
3.3 线性和随机张量
-
线性张量
-
torch.arange()
-
torch.linspace()
-
-
随机张量
-
torch.rand()/randn()
-
torch.randint()
-
torch.initial_seed()
-
torch.manual_seed()
import torch # torch.arange(start=, end=, step=): 创建指定步长的线性张量 左闭右开 # start: 起始值 # end: 结束值 # step: 步长, 默认1 # torch.linspace(start=, end=, steps=): 创建指定元素个数的线性张量 左闭右闭 # start: 起始值 # end: 结束值 # steps: 元素个数 # step=(end-start)/(steps-1) value_i=start+step*i def dm01():t1 = torch.arange(start=0, end=10, step=2)print('t1的值是->', t1)print('t1类型是->', type(t1))t2 = torch.linspace(start=0, end=9, steps=9)print('t2的值是->', t2)print('t2类型是->', type(t2)) # torch.rand(size=)/randn(size=): 创建指定形状的随机浮点类型张量 # torch.randint(low=, high=, size=): 创建指定形状指定范围随机整数类型张量 左闭右开 # low: 最小值 # high: 最大值 # size: 形状, 元组 # torch.initial_seed(): 查看随机种子数 # torch.manual_seed(seed=): 设置随机种子数 def dm02():# (5, 4): 5行4列t1 = torch.rand(size=(5, 4))print('t1的值是->', t1)print('t1类型->', type(t1))print('t1元素类型->', t1.dtype)print('t1随机种子数->', torch.initial_seed())# 设置随机种子数torch.manual_seed(seed=66)t2 = torch.randint(low=0, high=10, size=(2, 3))print('t2的值是->', t2)print('t2类型->', type(t2))print('t2元素类型->', t2.dtype)print('t2随机种子数->', torch.initial_seed()) if __name__ == '__main__':# dm01()dm02()
-
3.4 0/1/指定值张量
-
torch.ones/zeros/full(size=[, fill_value=])
-
torch.ones_like/zeros_like/full_like(input=tensor[, fill_value=])
import torch # torch.ones(size=): 根据形状创建全1张量 # torch.ones_like(input=): 根据指定张量的形状创建全1张量 def dm01():t1 = torch.ones(size=(2, 3))print('t1的值是->', t1)print('t1的形状是->', t1.shape)print('t1的元素类型是->', t1.dtype)# 形状: (5, )t2 = torch.tensor(data=[1, 2, 3, 4, 5])t3 = torch.ones_like(input=t2)print('t2的形状是->', t2.shape)print('t3的值是->', t3)print('t3的形状是->', t3.shape) # torch.zeros(size=): 根据形状创建全0张量 # torch.zeros_like(input=): 根据指定张量的形状创建全0张量 def dm02():t1 = torch.zeros(size=(2, 3))print('t1的值是->', t1)print('t1的形状是->', t1.shape)print('t1的元素类型是->', t1.dtype)# 形状: (5, )t2 = torch.tensor(data=[1, 2, 3, 4, 5])t3 = torch.zeros_like(input=t2)print('t2的形状是->', t2.shape)print('t3的值是->', t3)print('t3的形状是->', t3.shape) # torch.full(size=, fill_value=): 根据形状和指定值创建指定值的张量 # torch.full_like(input=, fill_value=): 根据指定张量形状和指定值创建指定值的张量 def dm03():t1 = torch.full(size=(2, 3, 4), fill_value=10)t2 = torch.tensor(data=[[1, 2], [3, 4]])t3 = torch.full_like(input=t2, fill_value=100)print('t1的值是->', t1)print('t1的形状是->', t1.shape)print('t3的值是->', t3)print('t3的形状是->', t3.shape) if __name__ == '__main__':# dm01()# dm02()dm03()
3.5 指定元素类型张量
-
tensor.type(dtype=)
-
tensor.half()/float()/double()/short()/int()/long()
import torch # torch.tensor(data=, dtype=): # dtype: 指定元素类型, 浮点类型默认是float32 # tensor.type(dtype=): 修改张量元素类型 # torch.float32 # torch.FloatTensor # torch.cuda.FloatTensor def dm01():t1 = torch.tensor(data=[[1., 2., 3.], [4., 5., 6.]], dtype=torch.float16)print('t1的元素类型->', t1.dtype)# 转换成float32t2 = t1.type(dtype=torch.FloatTensor)t3 = t1.type(dtype=torch.int64)print('t2的元素类型->', t2.dtype)print('t3的元素类型->', t3.dtype) # tensor.half()/float()/double()/short()/int()/long() def dm02():t1 = torch.tensor(data=[1, 2])print('t1的元素类型->', t1.dtype)# t2 = t1.half()t2 = t1.int()print(t2)print('t2的元素类型->', t2.dtype) if __name__ == '__main__':# dm01()dm02()
4 张量类型转换
4.1 张量转换为NumPy数组
import torch
import numpy as np
# 张量转换成numpy数组
# tensor.numpy(): 共享内存, 修改一个另外一个也跟着变, 可以通过copy()函数不共享内存
def dm01():t1 = torch.tensor([[1, 2, 3], [4, 5, 6]])print('t1->', t1)# 转换成numpy数组# n1 = t1.numpy()n1 = t1.numpy().copy()print('n1->', n1)print('n1的类型->', type(n1))# 修改n1的第一个值# [0][0]->第一行第一列的元素n1[0][0] = 100print('n1修改后->', n1)print('t1->', t1)
4.2 NumPy数组转换为张量
# numpy数组转换成张量
# torch.from_numpy(ndarray): 共享内存, 对ndarray数组进行copy()
# torch.tensor(data=ndarray): 不共享内存
def dm02():n1 = np.array([[1, 2, 3], [4, 5, 6]])# 转换成张量# 共享内存t1 = torch.from_numpy(n1)# 不共享内存# t1 = torch.from_numpy(n1.copy())# t1 = torch.tensor(data=n1)print('t1->', t1)print('t1类型->', type(t1))# 修改张量元素t1[0][0] = 8888print('t1修改后->', t1)print('n1->', n1)
4.3 提取标量张量的数值
import torch
# tensor.item(): 提取单个元素张量的数值, 张量可以是标量张量/一维张量/二维张量...只要是单个元素即可
def dm01():# 数值转换成张量# 标量t1 = torch.tensor(data=10)# 一维# t1 = torch.tensor(data=[10])# 二维# t1 = torch.tensor(data=[[10]])print('t1->', t1)print('t1形状->', t1.shape)# 单个元素张量转换成数值, 提取数值print('t1.item()->', t1.item())
if __name__ == '__main__':dm01()
5 张量数值计算
5.1 基本运算
-
+
-
*
/
-
-
tensor/torch.add() sub() mul() div() neg()
-
tensor/torch.add_()
sub_()
mul_()
div_()
neg_()
import torch # 运算: 张量和数值之间运算, 张量和张量之间运算 # + - * / - # add(other=) sub() mul() div() neg() 不修改原张量 # add_() sub_() mul_() div_() neg_() 修改原张量 def dm01():# 创建张量t1 = torch.tensor(data=[1, 2, 3, 4])# 张量和数值运算t2 = t1 + 10print('t2->', t2)# 张量之间运算, 对应位置的元素进行计算t3 = t1 + t2print('t3->', t3) # add() 不修改原张量t1.add(other=100)t4 = torch.add(input=t1, other=100)print('t4->', t4) # neg_() 修改原张量, 负号t5 = t1.neg_()print('t1->', t1)print('t5->', t5) if __name__ == '__main__':dm01()
5.2 点乘运算
-
对应位置的元素进行乘法计算, 一般要求张量形状相同
import torch # 点乘: 又称为阿达玛积, 张量元素级乘法, 对应位置的元素进行点乘, 一般要求两个张量形状相同 * mul() def dm01():# t1 = torch.tensor(data=[[1, 2], [3, 4]])# (2, )t1 = torch.tensor(data=[1, 2])# (2, 2)t2 = torch.tensor(data=[[5, 6], [7, 8]])t3 = t1 * t2print('t3->', t3)t4 = torch.mul(input=t1, other=t2)print('t4->', t4) if __name__ == '__main__':dm01()
5.3 矩阵乘法运算
-
第一个矩阵的行数据和第二个矩阵的列数据相乘
import torch # 矩阵乘法: (n, m) * (m, p) = (n, p) 第一个矩阵的行和第二个矩阵的列相乘 @ torch.matmul(input=, ohter=) def dm01():# (2, 2)t1 = torch.tensor(data=[[1, 2],[3, 4]])# (2, 3)t2 = torch.tensor(data=[[5, 6, 7],[8, 9, 10]]) # @t3 = t1 @ t2print('t3->', t3)# torch.matmul(): 不同形状, 只要后边维度符合矩阵乘法规则即可t4 = torch.matmul(input=t1, other=t2)print('t4->', t4) if __name__ == '__main__':dm01()
6 张量运算函数
-
mean()
-
sum()
-
min()/max()
-
dim: 按不同维度计算
-
exp(): 指数
-
sqrt(): 平方根
-
pow(): 幂次方
-
log()/log2()/log10(): 对数
import torch def dm01():# 创建张量t1 = torch.tensor(data=[[1., 2, 3, 4],[5, 6, 7, 8]]) # dim=0 按列# dim=1 按行# 平均值print('所有值平均值->', t1.mean())print('按列平均值->', t1.mean(dim=0))print('按行平均值->', t1.mean(dim=1))# 求和print('所有值求和->', t1.sum())print('按列求和->', t1.sum(dim=0))print('按行求和->', t1.sum(dim=1))# sqrt: 开方 平方根print('所有值开方->', t1.sqrt())# pow: 幂次方 x^n# exponent:几次方print('幂次方->',torch.pow(input=t1, exponent=2))# exp: 指数 e^x 张量的元素值就是xprint('指数->', torch.exp(input=t1))# log: 对数 log(x)->以e为底 log2() log10()print('以e为底对数->', torch.log(input=t1))print('以2为底对数->', t1.log2())print('以10为底对数->', t1.log10()) if __name__ == '__main__':dm01()
相关文章:
深度学习与 PyTorch 基础
笔记 1 深度学习简介 1.1 深度学习概念 深度学习是机器学习的一类算法, 以人工神经网络为结构, 可以实现自动提取特征 深度学习核心思想是人工神经网络为结构, 自动提取特征 1.2 深度学习特点 自动提取特征 解释性差 大量数据和高性能计算能力 非线性转换(引入非线性因…...
libevent库详解:高性能异步IO的利器
目录 一、libevent 简介 主要特点: 二、事件模型原理 1. event_base 2. event 3. evconnlistener(TCP监听器) 4. bufferevent 简化流程如下: 三、libevent 使用示例 1. 创建事件主循环 2. 创建监听器(TCP&a…...
第一章:A Primer on Memory Consistency and Cache Coherence - 2nd Edition
引言: 许多现代计算机系统,包括同构和异构架构的系统,都在硬件层面支持共享内存。在共享内存系统中,每个处理器核心都可以对单一的共享地址空间进行读写操作。对于共享内存计算机而言,内存一致性模型定义了其内存系统在…...
NVIDIA Omniverse在数字孪生中的算力消耗模型构建方法
引言:虚拟实验室的算力经济学 在高校虚拟实验室建设中,数字孪生系统的实时物理仿真精度与算力成本之间存在显著矛盾。以H800 GPU集群为例,单个8卡节点每秒可处理2.3亿个物理粒子交互,但若未建立精准的算力消耗模型,资…...
C++ 动态内存管理详讲
1. 四个全局函数的定义与作用 这四个函数只负责空间的开辟和释放,不会调构造和析构 (1) ::operator new cpp void* operator new(size_t size); // 全局版本 功能:分配 size 字节的未初始化内存。 底层实现:调用 malloc(size)。 调用场…...
纹理对象创建
纹理对象通俗点就是贴图,像游戏的皮肤什么就是纹理。常间的结构就是激活纹理单元(0-15有16个),将纹理对象挂在纹理单元上,纹理采样器需要采哪个样品就与哪个单元挂钩就行了,加载纹理对象需要用到stb_image库…...
如何利用dify 生成Fine‑tune 需要的Alpaca 格式数据
如果你选择llamafactory 格式进行微调,它只是格式是Alpaca格式,dify 的agent dsl 如下,你可以导入本地的dify 或者导入cloud 版本的;测试版本是0.1.5 app:description: 上传文件,基于文件内容,使用 Silico…...
软件第三方测试:关键部分、意义、流程及方法全解析?
软件第三方测试是保障软件质量的关键部分,它由专业的机构来开展,这个机构不隶属于开发方和使用方,能以客观公正的视角找出软件问题。 测试意义 软件第三方测试意义重大,它依靠专业技术,依照严格流程,对软…...
贪心算法解决会议安排问题
文章目录 前言 一、什么是贪心算法? 贪心算法的基本概念:贪心算法并不从整体最优上加以考虑,所做的选择只是在某种意义上的局部最优选择。 二、会议安排题目 1.题目理解 2.思路剖析 总结 前言 本文将主要介绍贪心算法需要注意的地方以…...
高露洁牙膏是哪个国家的品牌?高露洁牙膏哪一款最好?
高露洁是来自于美国一个比较有知名度的品牌,在1806年的时候创立。总部是在美国纽约公园大道,在1873年时,高露洁就已经开始销售罐装牙膏。 在1896年时期推出可折叠管牙膏,在口腔护理产品发展的过程中拥有着不容忽视的地位。在1992…...
lin接口在线计算数据帧的校验位
在线校验计算链接:https://linchecksumcalculator.machsystems.cz/ 插入图片:...
Linux-07-Shell
一、Shell概述: Shell是一个命令行解释器,它接受应用程序/用户命令,然后调用操作系统内核 二、Shell中的变量: 1.系统预定义的变量: $HOME,$PWD,$SHELL,$USER等 2.用户自定义的变量: (1).基本语法: 定义变量:变量名变量值,注意前后不能…...
【云盘】使用阿里云盘托管项目大文件
【云盘】使用阿里云盘托管项目大文件 由于经常需要切换服务器运行项目实验,不同服务器在项目实验过程中会产生不同的数据、模型等较大文件,不能像代码那样能够使用git托管,因此考虑使用阿里云盘作为”第三方平台“托管这些大文件。 一、使用…...
《缓存策略:移动应用网络请求的“效能密钥” 》
用户体验无疑是重中之重,而网络请求性能,恰似一座桥梁,连接着用户与应用丰富的内容和功能。当网络不佳或者请求频繁时,缓慢的响应速度常常让用户兴致索然,甚至可能导致用户流失。此时,缓存策略就如同一位幕…...
深入解析C++11委托构造函数:消除冗余初始化的利器
一、传统构造函数的痛点 在C11之前,当多个构造函数需要执行相同的初始化逻辑时,开发者往往面临两难选择: class DataProcessor {std::string dataPath;bool verbose;int bufferSize; public:// 基础版本DataProcessor(const std::string&am…...
文章七《深度学习调优与超参数优化》
🚀 文章7:深度学习调优与超参数优化——你的AI模型需要一场"整容手术" 一、模型调优核心策略:像调整游戏装备一样优化模型 1. 学习率调整:掌控训练的"油门踏板" 比喻:把模型训练想象成赛车游戏&…...
python入门(1)变量与输入输出
一、变量 使用规则 变量名值例子 a13变量名规则 变量名可以用大小写字母、数字、下划线。 数字、下划线不可开头 例子 name name1 1name name_first _first 二、输入输出 输出print print(*objects,sep"",end"\n") objects:多个要输出的值 sep:每个…...
藏文情感分析器入门学习实践
🎯 项目目标: 输入一段藏文短句。自动分析这句话的情感倾向:积极(正面)/消极(负面)/中立。 🔍 技术原理简介 情感分析是什么? 情感分析(Sentiment Analysi…...
爱胜品ICSP YPS-1133DN Plus黑白激光打印机报“自动进纸盒进纸失败”处理方法之一
故障现象如下图提示: 用户的爱胜品ICSP YPS-1133DN Plus黑白激光打印机在工作过程中提示自动进纸盒进纸失败并且红色故障灯闪烁; 给出常见故障一般处理建议如下: 当您的爱胜品ICSP YPS-1133DN Plus 黑白激光打印机出现“自动进纸盒进纸失败”…...
数据库索引重建与优化操作在数据库性能维护与数据更新频繁场景下的应用
数据库索引重建与优化操作在数据库性能维护与数据更新频繁场景下的应用 数据库索引的作用与重要性 索引的定义与作用 数据库索引是一种特殊的数据结构,用于加快数据库表的数据检索速度。它类似于书籍的目录,能够快速定位到需要的数据页,而不必…...
前端应用开发技术历程的简要概览
前端应用开发技术详解 一、萌芽期(1990s - 2004) 技术特征 HTML 3.2 / HTML 4.01 是主流版本。 样式用 CSS1/CSS2,但大部分样式写在 <style> 标签甚至行内。 动态效果主要通过 JavaScript 控制 DOM,兼容性极差。 代表事…...
SPOJ 11576 TRIP2 - A Famous King’s Trip 【Tarjan+欧拉回路】
自我吐槽 (哭 题目传送门 SPOJ 洛谷 题目大意 让你在简单无向图上删去2条边,使该图联通并存在欧拉回路 输出字典序最小的一对边 思路 考虑到存在欧拉回路的充要条件,即 i n x ≡ 0 ( m o d 2 ) ∀ i ( 1 ≤ i ≤ n ) in_x\equiv 0 (\m…...
DeepSeek R1:强化学习范式的推理强化模型
定位与目标 DeepSeek R1 的推出并非 DeepSeek V3 的简单迭代,而是一次在训练范式上的大胆探索。与传统大模型主要依靠监督微调(SFT)后进行强化学习不同,R1 将重点放在推理能力和行为对齐上,尝试通过大规模强化学习直接激发模型的推理潜力。其目标是利用强化学习的反馈机制,…...
ubuntu22.04安装显卡驱动与cuda+cuDNN
背景: 紧接前文:Proxmox VE 8.4 显卡直通完整指南:NVIDIA 2080 Ti 实战。在R740服务器完成了proxmox的安装,并且安装了一张2080ti 魔改22g显存的的显卡。配置完了proxmox显卡直通,并将显卡挂载到了vm 301(…...
使用python爬取百度搜索中关于python相关的数据信息
Python爬取百度搜索"Python"相关数据信息 一、准备工作 在开始爬取之前,需要了解以下几点: 百度搜索有反爬机制,需要合理设置请求头百度搜索结果页面结构可能会变化需要遵守robots.txt协议(百度允许爬取搜索结果&…...
Bootstrap(自助法):无需假设分布的统计推断工具
核心思想 Bootstrap 是一种重采样(Resampling)技术,通过在原始数据中有放回地重复抽样,生成大量新样本集,用于估计统计量(如均值、方差)的分布或模型性能的不确定性。 …...
lib和dll介绍和VS2019生成实例
目录 lib文件和dll文件的作用dll和lib的优缺点VS2019 编译YOLOv5的dll和lib lib文件和dll文件的作用 (1)lib是编译时需要的,dll是运行时需要的。 如果要完成源代码的编译,有lib就够了。 如果也使动态连接的程序运行起来,有dll就够了。 在开发…...
tinycudann安装过程加ubuntu18.04gcc版本的升级(成功版!!!!)
使用的是 Linux,安装以下软件包 sudo apt-get install build-essential git安装 CUDA 并将 CUDA 安装添加到您的 PATH。 例如,如果您有 CUDA 12.6.3,请将以下内容添加到您的/usr/local/~/.bashrcexport PATH"/usr/local/cuda-12.6.3/bi…...
数字智慧方案5869丨智慧健康医疗养老大数据整体规划方案(76页PPT)(文末有下载方式)
资料解读:智慧健康医疗养老大数据整体规划方案 详细资料请看本解读文章的最后内容。 随着科技的飞速发展,健康医疗领域正经历着一场深刻的变革。特别是在大数据和人工智能技术的推动下,智慧健康医疗养老的整体规划方案逐渐浮出水面。本文将…...
使用huggingface_hub需要注意的事项
在安装huggingface_hub的时候要注意如果你的python是放在c盘下时记得用管理员模式命令行来安装huggingface_hub,否则安装过程会报错,之后也不会有huggingface-cli命令。 如果安装时因为没有用管理员权限安装而报错了,可以先卸载huggingface-…...
Matplotlib核心课程-2
4.1 数据加载、储存 4.1.1 从数据文件读取数据 导入支持库: import numpy as np from pandas import Series,DataFrame import pandas as pd 从csv文件读取数据,一般方法: pd.read_csv(../data/ex1.csv,encodinggbk) 从csv文件读取数据&#…...
友元函数和友元类
友元 友元是 C 提供的一种 打破封装 的机制,允许 友元函数 或 友元类 访问某个类的 非公有成员(private/protected)。 友元函数 友元函数 可以 直接访问 类的所有 成员,它是 定义在类外部 的 普通函数 ,不属于任何类…...
5.2刷题
P1064 [NOIP 2006 提高组] 金明的预算方案 背包+附属品DP #include<bits/stdc.h> using namespace std; #define int long long int n, m, v, p, q; struct node{int id, v, s, f; }a[100]; int b[32010], dp[32010]; bool cmp(node a, node b){if(a.id b.…...
用VNA进行天线阻抗匹配的实例大图
比如我这天线,在7Mhz时不谐振,我进行匹配 天线的阻抗很高,大约是在500-1400欧,而等效电容电感很小。 所以我考虑使用阻抗变压器降低阻抗。 1。测试天线阻抗,电阻相当高,等效电容很小。 2。通过磁环匹配到…...
普通IT的股票交易成长史--20250502 突破(1)
声明:本文章的内容只是自己学习的总结,不构成投资建议。文中观点基本来自yt站方方土priceaction,综合自己的观点得出。感谢他们的无私分享。 送给自己的话: 仓位就是生命,绝对不能满仓!!&#…...
[预备知识]5. 优化理论(一)
优化理论 梯度下降(Gradient Descent) 数学原理与可视化 梯度下降是优化领域的基石算法,其核心思想是沿负梯度方向迭代更新参数。数学表达式为: θ t 1 θ t − α ∇ θ J ( θ t ) \theta_{t1} \theta_t - \alpha \nabla…...
AI人工智能的接入和使用
缘起 从参加工作开始就在从事AI的落地和接入,到现在已经25年了。所以对AI一直有种情怀,还写了一系列的《基于语音识别的智能电子病历》的文章,记录了这条路上的潮起潮落。 年少多痴狂 2015年开始负责开发语音识别引擎语义分析,…...
QT6(32)4.5常用按钮组件:Button 例题的代码实现
(103) 先设置对齐: 再设置粗体、斜体、下划线: 给出这三个按钮的源码; 颜色按钮的实现 : 至此完结,谢谢老师们的无私教导。 (104) 谢谢...
B站Michale_ee——ESP32_IDF SDK——FreeRTOS_8 消息缓冲区
Message Buffer(消息缓冲区)与Stream Buffer(流数据缓冲区)类似,但有2点不同: Message Buffer每次只接收1次完整的Message;Message Buffer接收缓冲区小于1条Message大小时,会接收不到数据&#…...
DarkGS:论文解读与全流程环境配置及数据集测试【基于Ubuntu20.04 】【2025最新实战无坑版!!】
一、背景及意义 DarkGS是一个创新性的研究项目,旨在解决机器人在黑暗或低光照环境中探索的问题。传统的3D重建和视觉定位系统在光照条件不佳时表现不佳,这严重限制了机器人在黑暗环境中的应用,如夜间救援、深海探索或洞穴勘测等场景。 这项工…...
【大模型面试每日一题】Day 6:分布式训练中 loss 出现 NaN,可能原因及排查方法?
【大模型面试每日一题】Day 6:分布式训练中 loss 出现 NaN,可能原因及排查方法? 📌 题目重现 🌟🌟 面试官:你在使用 PyTorch 进行大规模语言模型的分布式训练时,发现 loss 变成 Na…...
[面试]SoC验证工程师面试常见问题(二)
SoC验证工程师面试常见问题(二) 摘要:面试SoC验证工程师时,SystemVerilog (SV) 和 UVM (Universal Verification Methodology) 是核心技能,而AXI总线是现代SoC中最常见的接口协议之一,因此也是必考点。以下是可能被问到的问题及优质答案的详细列表: 一、 System…...
BLE协议栈的解析
目录 概述 1 BLE协议栈层次结构 1.1 控制器(Controller) 1.2 主机(Host) 1.3 应用层(Application) 1.3.1 业务层功能 1.3.2 实现方法 2 重要属性介绍 2.1 GATT属性 2.2 服务(Service) 2.3 特征值…...
中小企业MES系统需求文档
适用对象:中小型离散制造企业(年产值1-5亿,员工200-800人) 版本:V1.0 日期:2025年5月2日 一、业务背景与目标 1.1 现状痛点 生产黑箱化:车间进度依赖人工汇报,异常响应延迟>2小…...
邹晓辉教授十余年前关于围棋程序与融智学的思考,体现了对复杂系统本质的深刻洞察,其观点在人工智能发展历程中具有前瞻性意义。我们可以从以下三个维度进行深入解析:
邹晓辉教授十余年前关于围棋程序与融智学的思考,体现了对复杂系统本质的深刻洞察,其观点在人工智能发展历程中具有前瞻性意义。我们可以从以下三个维度进行深入解析: 一、围棋程序的二元解构:数据结构与算法的辩证关系 1.1.形式…...
JAVA继承详细总结
看前摇一摇这篇文章:java 继承 补充:子类能继承父类中的哪些内容? - 小澳子 - 博客园 构造方法的继承规则 Java 中构造方法不会被子类继承。JLS 明确指出“构造方法不是类的成员,因此永远不会被继承”docs.oracle.com。博客原文在“继承内存…...
AntSK:基于大模型的一体化AI知识库解决方案深度解析
随着大模型(如GPT、LLM)技术的飞速发展,企业对智能知识管理和专属AI助手的需求日益增长。AntSK 正是在这一背景下诞生的企业级AI一体机解决方案。本文将从技术架构、核心功能、创新点和应用场景等方面,深入解析 AntSK 如何助力企业…...
C++11新特性_标准库_std::array
std::array 是 C11 标准库引入的一个容器,用于表示固定大小的数组。它定义在 <array> 头文件中。下面为你详细介绍其优势和使用方法。 优势 1. 类型安全 与传统的 C 风格数组不同,std::array 是一个模板类,它的类型信息在编译时就已…...
【AI面试准备】数据治理与GDPR脱敏机制构建
介绍数据治理:构建符合GDPR的测试数据脱敏机制。如何快速掌握,以及在实际工作中如何运用。 数据治理是确保数据质量、安全性和合规性的系统性方法,而构建符合GDPR(《通用数据保护条例》)的测试数据脱敏机制是其中的关…...
A2A Python 教程 - 综合指南
目录 • 介绍• 设置环境• 创建项目• 代理技能• 代理卡片• A2A服务器• 与A2A服务器交互• 添加代理功能• 使用本地Ollama模型• 后续步骤 介绍 在本教程中,您将使用Python构建一个简单的echo A2A服务器。这个基础实现将向您展示A2A提供的所有功能。完成本教…...